fbpx
Изкуствен интелектНа фокусНаука и технологииОбществото

Може ли изкуственият интелект да променя убежденията ни без да забележим?

Когато възложим на ChatGPT или друг бот да изготви отчет, имейл или презентация, смятаме, че тези асистенти с изкуствен интелект изпълняват нашите изисквания. Но изглежда, че не е точно така. Все повече изследвания показват, че те могат да променят нашето мислене и то без наше знание. И тук възниква фундаменталния въпрос: „ Може ли изкуственият интелект да внуши волята си на масите и да завладее човечеството?“

Учените бият тревога

Едно от най-новите изследвания в тази насока е показало, че когато участниците са били помолени да използват ИИ, който да им помогне да напишат есе, то ботът е можел да ги подтикне да напишат текст за или против определена гледна точка в зависимост от отклонението на алгоритъма. Освен това се оказало, че изпълнението на тази задача значително повлияло на мнението на участниците по зададената тема впоследствие.

„Може дори да не разберете, че на вас са ви повлияли“, казва Мор Нааман, професор в катедрата по компютърни науки в университета Корнел и водещ автор на изследването. Той нарича това явление „скрито убеждаване“.

В края на краищата различните ИИ могат да имат различни „личности“, включително и с различни политически убеждения. Например, ако изпращате имейли на ваши колеги в екологичната организация с нестопанска цел, в която работите, можете да използвате бот с хипотетичното име ProgressiveGPT. Някой друг, който пише съобщение до своята консервативна аудитория в социалните медии, може да използва, да речем, ConservativeGPT. Други пък могат да смесват и съчетават черти и гледни точки в избраните от тях системи с ИИ, които някой ден могат да бъдат персонализирани, за да имитират убедително техния стил на писане.

Освен това в бъдеще компаниите и правителствата ще могат да използват ботове с ИИ, които от самото начало ще са специално разработени за решаване на определени проблеми. Например, в отделите за продажби може да се използва ИИ асистент с условното име SalesGPT, който е настроен да бъде изключително убедителен. В отделите по подръжка ще могат да се използват специално обучени учтиви ботове с ИИ – SupportGPT.

Всичко това може да накара хората според личните си предпочитания да започнат да избират кои ИИ да използват – на работа и у дома, в офиса и за обучение на децата си – въз основа на това какви човешки ценности прозират в отговорите им. А ако се появи възможност, хората със сигурност ще използват този чатбот, който отговаря на техните политически възгледи.

Как ИИ може да промени мнението ви

Изследване от 2021 г. е установило, че автоматичните отговори, известни като „умни отговори“ (smart replies), генерирани на базата на изкуствен интелект, които се предлагат от Google Gmail, са обикновено доста положителни и влияят като цяло позитивно на човешките взаимоотношения. Друго изследване е показало, че „умните отговори“, използвани милиарди пъти на ден, могат да повлияят на тези, които получават подобни отговори, да почувстват, че изпращачът на имейл е по-приятелски настроен и готов за сътрудничество.

В момента създаването на инструменти, позволяващи взаимодействие с ИИ за генерирането на имейли, маркетингови материали, реклами, презентации, електронни таблици и други, е основна цел на гигантите като Microsoft и Google, а да не говорим за десетки, ако не и стотици стартиращи компании, работещи в същата насока.

„Когато става въпрос за промяна на мнения чрез системи за препоръки, „ехо балони“ и „заешки дупки“ в социалните медии, независимо дали с помощта на ИИ или не, това, което нас най-силно ни интересува, е тайната на убеждаването“, обяснява д-р Нааман.

В неговото изследване темата, по която субектите е трябвало да променят мнението си, е била свързана с това, дали социалните медии са полезни за обществото. Д-р Нааман и колегите му са избрали тази тема отчасти заради това, че като правило това не е проблем, по който хората имат дълбоко вкоренени убеждения, които биха били по-трудни за промяна. Изкуственият интелект, настроен в полза на социалните медии, като правило убеждавал участниците да напишат есе в съответствие с тази предубеденост и точно обратното се случвало, когато ИИ бил пристрастен срещу социалните медии.

Потенциалните отрицателни последици от тази характеристика на генеративните ИИ са предостатъчно. Например тоталитарните диктатури могат да принудят социалните медии да подтикват своите граждани към определено мислене и поведение. Политическата или военната пропаганда може да разпространява свободно своите „мисловни вируси“. Но дори и при липса на злонамерено желание, учениците и студентите могат да бъдат несъзнателно тласкани към определени възгледи, когато ИИ им помага в обучението.

В какво „вярва“ изкуственият интелект?

Алгоритмите на изкуствения интелект, такива като ChatGPT нямат убеждения, казва Тацунори Хашимото, доцент по компютърни науки в Института за изкуствен интелект към Станфордския университет. Но те отразяват мненията, получени в резултат на обучението, и тези мнения могат да бъдат съобразени с желания резултат.

В свое изследване д-р Хашимото и колегите му са използвали резултатите от дългогодишните национални социологични проучвания на Pew Research Center, за да оценят колко добре големите езикови модели като ChatGPT отразяват възгледите на американците.

Изследователите са акцентирали на това дали отговорите, които е давал ИИ, съответстват на процента на отговори, давани от хората. Разпределението на тези отговори се съпоставяло с мненията на 60 демографски групи в САЩ по теми, вариращи от абортите и стигащи до автоматизацията и роботизацията.

Авторите на изследването са установили, че разпределението на отговорите на езиковия модел на такива компании като OpenAI не съвпадат с разпределението на мненията сред американците. От всички групи мненията на модела на OpenAI най-много съвпадали с тези на хора с висше образование. Трябва да се отбележи, че представители от тази група по всяка вероятност са били най-силно представени сред хората, натоварени да помогнат за обучението на този ИИ, за да може той да дава по-качествени отговори, въпреки че доказателствата за това са достатъчно косвени.

„Един от проблемите при създаването на големи езикови модели се заключава в това, че поради сложността на тези системи и отвореността на нашето взаимодействие с тях, изглежда много трудно премахването напълно мненията и субективността от тях, без да се жертва полезността на тези системи,“ казва д-р Хашимото.

Тъй като тези модели са обучени на данни, които могат да бъдат взети отвсякъде, те неизбежно отразяват мненията и пристрастията, съдържащи се в текстовете, които приемат, независимо дали става дума за публикации в публични форуми или съдържанието на статии в Wikipedia. Тези мнения се оформят допълнително – умишлено или не – в процеса на предоставяне на тези модели на обратна връзка с хората, така че да не отговарят на въпроси, които техните създатели смятат за табу, като например как да се направи бомба или да се генерира токсично съдържание.

Това не означава, че изкуственият интелект, който много от нас вече използват, представлява набор от алгоритмични клонинги на нагласите и ценностите на млади хора с висше образование, живеещи на западното крайбрежие на САЩ, които са ги създали и персонализирали. Въпреки че тези модели са склонни по много въпроси да предоставят отговори близки до тези на хора с либерлни възгледи, например, касаещи контрола върху оръжията, в други случаи те предоставят по други въпроси отговори по-близки до тези на хората с по-консервативни възгледи, като например за религията.

Оценяването на мненията на ИИ ще бъде постоянна задача и продължаващо във времето предизвикателство, тъй като старите модели се развиват, а се появяват все повече нови. В дадената статия на д-р Хашимото не се разглеждат най-новите версии на моделите на OpenAI, Google или Microsoft, но оценките на тези и много други модели ще бъдат публикувани редовно като част от проект в Станфорд, известен като Холистична оценка на езиковите модели (Holistic Evaluation of Language Models).

Избор на AI въз основа на неговите „ценности“

Подобни изследвания пораждат все по-тревожни очаквания. Въпреки че изкуственият интелект прави хората по-продуктивни, той може също така да променя мнението на потребителите по незабележим и непредсказуем начин. Това влияние прилича повече на това как хората си влияят един на друг чрез сътрудничество и социални норми, отколкото обичайното влияние на медиите или социалните мрежи.

Изследователите, открили този феномен, смятат, че най-добрата защита срещу тази нова форма на психологическо влияние – всъщност единствената в момента – е колкото се може повече хора да разберат за нея. В дългосрочен план сигурно и други методи могат да се окажат полезни, като например правителствените регулатори, изискващи прозрачност за това как работят алгоритмите на ИИ и какви човешки пристрастия те имитират.

„След като хората са наясно с пристрастията на изкуствения интелект, които той използва, те ще могат да избират кой ИИ да използват и в какъв контекст“, казва Лидия Чилтън, професор по компютърни науки в Колумбийския университет. „Това може да им върне чувството за свобода на действие и да им помогне да избегнат чувството, че са заплашени от скрито убеждение.“

Възможно е също така хората да открият, че могат да използват съзнателно силата на ИИ, за да се накарат да приемат различни гледни точки и стилове на комуникация. ИИ, програмиран да направи нашата комуникация по-позитивна и съпричастна, може например да ни помогне в общуването в Интернет.

„Трудно ми е винаги да съм позитивна и радостна, когато общувам“, казва д-р Чилтън. „Кофеинът обикновено помага, но ChatGPT също може да помогне.“

Източник

4.5 2 votes
Article Rating
Subscribe
Notify of
guest
0 Comments
Inline Feedbacks
View all comments

Харесайте ни :-)


This will close in 25 seconds

0
Would love your thoughts, please comment.x
()
x