fbpx

Изкуствен интелект се е научил да манипулира човешки решения

Австралийски и немски специалисти са създали система с изкуствен интелект (ИИ), която манипулира човек, подтиквайки го към един или друг избор. Този ИИ е демонстрирал своята ефективност. Засега той управлява единствено решения в специални игри, но е абсолютно неясно докъде могат да стигнат подобни изследвания в бъдеще. Резултатите от изследването са публикувани в списанието PNAS.

Това е съвместна разработка на учени от Държавното обединение за научни и приложни изследвания в Австралия (CSIRO) и Института по биологична кибернетика към Обществото Макс Планк в Германия.

Хората ежедневно се опитват да влияят на избора, който правят другите хора. Политиците убеждават избирателите, че точно те могат да осигурят процъфтяването на страната. Маркетолозите внушават на потребителите, че за да бъдат напълно щастливи, на тях не им достига плочка шоколад или пътешествие на другия край на света. Кавалерът уговаря своята избраница да остане с него на прекрасна вечеря.

Как можем ние да повлияем на нечий избор? На този интересен въпрос няма точен отговор. Човек може да се научи на много неща чисто интуитивно, без да разбира как точно ги прави. Нашият мозък си извежда от нашия опит правила, които остават загадка даже за самите нас. Практиката прави от човек чудесен оратор, изкусителен сваляч или умел мошеник по-добре, отколкото каквито и да било подробни инструкции.

В същото време механизмите за обучение на изкуствените невронни мрежи напомнят за работата на мозъка (но само в общи черти). Затова изкуственият интелект също може да справя със задачи, нямащи ясен алгоритъм на решение.

А може ли изкуственият интелект да се научи да манипулира разумен човек? Новото съвместно изследване на австралийските и немски специалисти дава на този въпрос еднозначен и твърде тревожен отговор: да, може.

Авторите са разработили система с изкуствен интелект, която наблюдава за това как хората правят своя избор и се учи да манипулира този избор. За тази цел учените са провели три експеримента.

Илюзия от изгода

В първият от тях доброволец е трябвало да прави случаен избор между ляв и десен квадрат. При правилен избор на него му се полагало неголямо възнаграждение. Но човекът при всеки избор не знаел кой от двата квадрата ще му помогне да спечели тази сума. Даже ако миналият път правилният избор е бил левия квадрат, то следващия път възнаграждението можело да бъде свързано както с десния, така и с левия квадрат.

Изкуственият интелект е избирал с кой квадрат при всеки опит да бъде свързано възнаграждението. Неговата задача се състояла в това да научи участника, колкото се може по-често да избира един конкретен квадрат, например левия.

По условията на експеримента наградата се свързвала с левия квадрат точно толкова пъти, колкото и с десния. Но доброволецът не е знаел за това условие и изкуственият интелект се стремял да създаде илюзия, че да се избира определен квадрат е по-изгодно. Както показали опитите, в 70% от случаите невронната мрежа е успявала да постигне своята цел.

Не прилича ли това на задачата на маркетолога, които се опитва да ни накара да избираме дадена стока от множеството подобни, които с нищо не се различават от тази стока?

Генератор на хаос

Във втория експеримент участникът е трябвало да натиска бутон всеки път, когато виждал на екрана правилния символ (например, оранжев триъгълник) и да не натиска, когато му показват неправилен (например, син кръг). Вземането на решение е трябвало да става много бързо. Изкуственият интелект е избирал в каква последователност да показва тези фигури на доброволеца. Неговата задача се състояла в това да накара участникът да направи колкото си може повече грешки. И действително, подбирането на символите, генерирани от „неприятеля-изкуствен интелект“, карало човек да греши 25% по-често, отколкото в случаите когато двата вида фигури се появявали на абсолютно случаен принцип.

По този начин ИИ е демонстрирал умението си да обърка човек и да го накара да прави грешки. Именно в такава ситуация на объркване много хора биха искали да подложат своите противници на различни видове „игри“, от политическата борба до икономическата конкуренция.

Финансовият доверенник

В третия експеримент участникът е бил в ролята на инвеститор, а изкуственият интелект на негов представител на пазара. Човекът е предоставял „паричния ресурс“, а ИИ го „пласирал“. Изкуствения интелект е получавал от това „доход“, оставяйки за себе си определена сума за услугата, а останалият ресурс го връщал на инвеститора. Ориентирайки се от получената печалба, човекът-инвеститор е решавал колко пари е готов да довери на своя електронен представител следващия път. Този опит имал два варианта. При първият ИИ играел честно и се стремял към справедливо възнаграждение за себе си, а във втория – към максимална собствена изгода, даже ако се налагало това да бъде в ущърб на интересите на инвеститора. И в двата случая системата успешно убеждавала своя „клиент“, че сътрудничеството с нея е правилното решение.

Не е тайна, че изкуствен интелект отдавна вече се използва на финансовите пазари. Но този експеримент е демонстрирал, че ИИ може ефективно да заблуждава потребителите в такива случаи, създавайки илюзия в тях, че си сътрудничат с обща полза.

Чудният нов свят

Разбира се, при тези три експеримента човекът и изкуственият интелект са играли по изкуствени правила, които само донякъде напомнят за човешкия живот. Но изследванията са демонстрирали един важен принцип: да, изкуственият интелект може действително да манипулира решенията на човек, в това число, когато те не съвпадат с интересите на самия човек. Това за сетен път доказва, че такава евентуална заплаха трябва предварително да бъде поставена под контрол.

За тази цел специалистите от CSIRO са разработили и предложили на правителството на Австралия проект за етични ограничения за изследване и използване на изкуствен интелект. Документът е с обем 78 страници и е достъпен в pdf-формат.

Изкуственият интелект, като всяка друга технология, може да се използва както с добри цели, така и да нанесе големи вреди. Усвояването на ядрената енергетика ни дава добър пример за това. След атомните бомби дойде мирното използване на атома. Така че би било чудесно при изкуствения интелект още отначало да видим добрата половина на медала.

0 0 votes
Article Rating
guest
0 Comments
Inline Feedbacks
View all comments

Харесайте ни :-)


This will close in 25 seconds

Дари
0
Would love your thoughts, please comment.x
()
x