fbpx
Изкуствен интелектНаука и технологии

Може ли изкуственият интелект чрез дийпфейковете да се превърне в заплаха за истината

Дийпфейк (deepfake) е технология, която използва форма на изкуствен интелект, съчетана с дълбоко машинно обучение, служеща за създаването на видео клипове и аудио записи с хора и лица, които казват неща или вършат действия, които никога не са казвали или правили реално. Все повече експерти изказват своите страхове, че с по-нататъшното развитие на изкуствения интелект ще става все по-трудно да се отдели реалността от илюзията и това може да се превърне в поле на грандиозни и опасни манипулации.

Дийпфейковете се превръщат в редовна част от новините: светът многократно вече е обсъждал действията на измамници-изнудвачи, които използват генерирани изображения, гласове или видеоклипове. Обикновено жертвите са публично известни: големи компании, звезди, политици.Тази наша обща уязвимост към изкуствено генерираните лъжи и фалшиви новини започва да се превръща в един от най-големите рискове в развитието на изкуствения интелект.

Дийпфейковете най-често се създават с помощта на иновацията в дълбокото обучение, наречена генеративно-състезателна мрежа (GAN). GAN ангажира две конкуриращи се невронни мрежи във вид игра, която непрекъснато насърчава системата да създава все по-добра медийна имитация. Например GAN, предназначен да фалшифицира снимки, ще се състои от две интегрирани дълбоки невронни мрежи. Първата, известна като “генератор”, произвежда изображения. Втората е обучена върху набор от реални снимки и се нарича “дискриминатор”. Изображенията, генерирани от генератора, се смесват с реалните снимки и се предоставят на дискриминатора. Двете мрежи непрекъснато си взаимодействат в състезанието, при което дискриминаторът оценява всяка снимка, генерирана от генератора, и решава дали е истинска или фалшива. Задачата на генератора е да заблуди дискриминатора чрез генериране на фалшиви снимки. Докато мрежите се състезават, редувайки ходове, качеството на изображенията се повишава, докато системата най-накрая достигне равновесие, при което дискриминаторът може само да гадае дали анализираното изображение е реално. С този метод могат да се получат невероятно впечатляващи генерирани изображения. Пуснете в интернет търсене „фейкови лица, създадени от GAN“ и ще получите безброй примери за изображения с висока разделителна способност на хора, които никога не са съществували. Опитайте се да се поставите на мястото на дискриминатора. Снимките изглеждат напълно реални, но всъщност това е илюзия и образът е изплувал от дигиталния свят.

Генеративните състезателни мрежи са изобретени от аспиранта в Университета на Монреал Иън Гудфелоу. Една вечер през 2014 г. Гудфелоу и негов приятел седели в бар и обсъждали как може да се създаде система за дълбоко обучение, която може да генерира висококачествени изображения. Гудфелоу предложил концепцията за генеративно-състезателната мрежа, която била посрещната с изключителен скептицизъм. След като се върнал у дома, той веднага седнал да пише код. Няколко часа по-късно той получил първия си работещ GAN. Това постижение впоследствие превърна Гудфелоу в една от легендите в областта на мрежите за дълбоко обучение.

Генеративно-състезателните мрежи имат много полезни приложения. В частност, синтезирани изображения или други медийни файлове могат да се използват като данни за обучение на други системи. Например дълбоките невронни мрежи на самоуправляващи се автомобили могат да бъдат обучавани с изображения, създадени от GAN. Също така е имало предложение генерирани лица на небели хора да се използват за обучение на системи за лицево разпознаване, като по този начин се реши проблемът с расовите пристрастия в случаите, когато не е възможно етично да се получат достатъчен брой висококачествени снимки на реални хора с друг цвят на кожата. По отношение на гласовия синтез, GAN могат да дадат на хора, загубили възможността да говорят, компютърно генериран заместител, който да звучи точно като истинския им глас. Известен пример е покойният Стивън Хокинг, който е загубил способността си да говори поради амиотрофична латерална склероза или болестта на Лу Гериг и е “говорил” с характерен синтезиран глас. Наскоро, страдащите от тази болест, например като бившия играч в НФЛ Тим Шоу, са получили възможност да говорят със собствения си глас, възстановен от мрежи за дълбоко обучение, обучени на записи преди заболяването.

В същото време потенциал за злоупотреба с тази технология съществува и е много съблазнителен. Вече съществуват множество дийпфейкове, например във вид на фалшиви видеоклипове, които са достъпни за широката публика и са създадени като шега или с образователна цел. Но можете да намерите и много фалшиви видеоклипове, “включващи” знаменитости като Марк Зукърбърг, Барак Обама и други, които казват неща, които те не биха казали, поне публично.

Най-разпространеният метод за създаване на дийпфейковете е дигиталното прехвърляне на лицето на един човек в реално видео на друг. Според компанията Sensity (преди Deeptrace), стартъп, създаващ инструменти за разпознаване на дийпфейкове, през 2019 г. най-малко 15 000 такива са били публикувани онлайн, което е 84% увеличение спрямо предходната година, а се предполага, че с всяка следваща година техният брой се увеличава. От тях 96% са били порнографски изображения или видеоклипове на знаменитости, в които лицето на звездата – почти винаги жена – е комбинирано с тялото на порно актриса. Звезди като Тейлър Суифт и Скарлет Йохансон са едни от основните мишени, но в бъдеще по всяка вероятност всеки може да стане жертва на дигитална злоупотреба, особено след като технологията се подобряват и инструментите за създаване на дийпфейкове станат по-достъпни и по-лесни за използване.

Качеството на тези фалшификати непрекъснато нараства и заплахата изфабрикувано аудио или видео да станат наистина разрушителни, изглежда неизбежна. Един достоверен дийпфейк може буквално да промени хода на историята, а средствата за създаване на такива фалшификати могат да се окажат в ръцете на политтехнолози, чужди правителства или дори на тийнейджъри, които нямат нищо против някоя хулиганска постъпка. По тази причина не само политиците и знаменитостите трябва да са загрижени. В ерата на вирусните видеоклипове, клеветническите кампании в социалните медии и „културата на изключване“, почти всеки може да стане мишена на дийпфейк, който заплашва да съсипе кариерата и живота му. Вече знаем, че вирусни видеоклипове за полицейска бруталност могат да предизвикат масови протести и социални вълнения почти моментално. В такива условия не трябва да се изключва възможността, че в бъдеще ще е възможно да се синтезира, например от някоя чуждестранна разузнавателна служба , видеоклип, който да е толкова провокативен, че да се превърне в заплаха за самата тъкан на обществото.

В допълнение към целенасоченото използване на дийпфейковете, практически се отварят неограничени незаконни възможности пред тези, които просто искат да печелят пари. Престъпниците с готовност ще използват тази технология за различни цели, от финансови и застрахователни измами до манипулиране на пазара на ценни книжа. Видео, в което главният изпълнителен директор на голяма публична компания прави лъжливо изявление или се държи странно, може да срине нейните акциите. Дийпфейковете могат да се превърнат в голяма заплаха и за правната система. Изфабрикувани медийни материали могат да бъдат представени като доказателство, поставяйки съдиите и съдебните заседатели в ситуация, в която е трудно или дори невъзможно да се каже дали това, което виждат със собствените си очи, е истина.

Разбира се, все повече талантливи хора работят върху решенията на тези проблеми. Например Sensity предоставя софтуер, за който компанията твърди, че може да разпознае повечето от дийпфейковете. Технологиите обаче не стоят на едно място, което прави неизбежна “надпревара във въоръжаването” подобна на тази, която тече между създателите на компютърни вируси и компаниите, които продават програми за защита срещу тях. В тази надпревара нападателите винаги ще имат предимство, макар и минимално. Според Иън Гудфелоу не може да се разбере дали едно изображение е истинско или фалшиво само ако се „гледат пикселите“. В крайна сметка сигурно ще се наложи да разчитаме на механизми за удостоверяване, като киберподписи за снимки или видеоклипове. Може би някой ден всяка видеокамера и всеки мобилен телефон ще добавят цифров подпис към всеки един запис. Например стартъпът Truepic, вече предлага приложение, което поддържа тази функция. Сред клиентите му са най-големите застрахователни компании, които оценяват въз основа на снимките, изпратени от клиентите им, всичко – от сгради до бижута и скъпи вещи. Според Гудфелоу и това в крайна сметка няма да се превърне в пълноценно технологично решение на проблема с дълбоките фалшификати. Ще се наложи по някакъв начин да се научим да се ориентираме в новата безпрецедентна реалност, където всичко, което виждаме и чуваме, може да е илюзия.

Дийпфейковете са предназначени да подвеждат хората. С този проблем е свързан и още един – злонамереното фабрикуване на данни, предназначени да измамят или да подчинят алгоритмите за машинно обучение. При тези „състезателни атаки“, специално създадената входна информация има за цел да накара системата за машинно обучение да направи грешка, което да позволи на атакуващия да постигне желания резултат. В случай на машинното зрение, в картината може да се постави някакъв предмет, изкривяващ интерпретацията му от невронната мрежа. Известен е случай, в който изследователите са взели снимка на панда, идентифицирана от система за дълбоко обучение с увереност за правилност от 58%, добавили са внимателно конструиран визуален шум и по този начин са накарали системата да я обърка с гибон с 99% увереност. В особено плашеща демонстрация било установено, че чрез добавяне само на четири малки правоъгълни черно-бели стикера към знак “Stop” , системата за управление на безпилотни автомобили може да бъде убедена, че това е знак за движение със 45 мили в час. С други думи, подобна „състезателна“ атака може да има смъртоносни последици. И в двата примера човекът просто не би обърнал внимание на объркващата информация и със сигурност няма да бъде измамен. Това е ясна демонстрация колко повърхностни и крехки са представите, които се формират в съвременните дълбоки невронни мрежи.

Изследователската общност в областта на изкуствения интелект приема много сериозно „състезателните атаки“ и ги смята за критична уязвимост. Създателят на GAN Иън Гудфелоу е посветил значителна част от изследователската си кариера на сигурността при използването на системи за машинно обучение и създаването на методи за защита. Проектирането на ИИ системи, които са имунизирани срещу противникови атаки, въобще не е лесна задача. Един от подходите се състои в използването на така нареченото състезателно обучение, при което специално се включват състезателни примери с надеждата, че невронната мрежа ще може да идентифицира подобни състезателни атаки. Въпреки това, както в случаите с дийпфейковете, тук също е почти неизбежна постоянната „надпревара във въоръжаването“, в която нападателите винаги ще бъдат една крачка напред. Както отбелязва Гудфелоу, „все още никой не е създал наистина мощен алгоритъм за защита, който може да издържи на различни атакуващи алгоритми, базиращи се на състезателност.“

Въпреки че състезателните атаки се отнасят изключително до системите за машинно обучение, те ще се превърнат в много сериозен проблем в списъка с компютърни уязвимости, които могат да бъдат използвани от киберпрестъпници, хакери или чуждестранни разузнавателни служби. Тъй като изкуственият интелект се използва все по-широко, а Интернет на нещата (IoT) увеличава взаимосвързаността на устройства, машини и инфраструктура, проблемите със киберсигурността стават много по-значими по отношение на последствията и кибератаките със сигурност ще се увеличат. Увеличеното използване на ИИ неизбежно ще доведе до появата на по-автономни системи с по-малко човешко участие, които ще станат привлекателни цели за кибератаки. Представете си например ситуация, при която храна, лекарства или основни консумативи се доставят от безпилотни камиони. Атака, която да накара тези превозни средства да спрат или поне да се създаде сериозно забавяне в изпълнението на командите, може да има животозастрашаващи последици.

От горното следва, че по-широката достъпност и използване на изкуствен интелект ще бъде свързано със системни рискове, включително заплахи за критични инфраструктурни съоръжения и системи, както и за обществения ред, икономиката и демократичните институции. В краткосрочен план рисковете за сигурността ще са една от най-важните заплахи, свързани с развитието на изкуствения интелект. Ето защо е абсолютно необходимо да се инвестира в изследвания, насочени към създаване на стабилни системи за изкуствен интелект и формиране на ефективна колаборация между държавните институции и частния бизнес за разработване на мерки за регулиране и защита, още преди да се появят критични уязвимости.

Източник

5 1 vote
Article Rating
Subscribe
Notify of
guest
0 Comments
oldest
newest most voted
Inline Feedbacks
View all comments

Харесайте ни :-)


This will close in 25 seconds

0
Would love your thoughts, please comment.x
()
x