fbpx
Изкуствен интелектНаука и технологии

„Геноцидът – това е нормално, ако прави хората щастливи“: защо етичният изкуствен интелект може да е опасен

Някои учени смятат, че опитът да се научи изкуствения интелект на нещо толкова сложно като човешкия морал е безсмислена работа. Те смятат, че това е така, защото в момента възможностите на машинното обучение са твърде ограничени.

Ask Delphi е система с изкуствен интелект, която генерира алгоритмично отговори на всякакъв етичен въпрос, който му зададете. Тя е била тествана от интернет потребители, след което разработчиците са стигнали до заключението, че засега не трябва да поверяваме на изкуствения интелект разрешаването на етични дилеми.

Трябва ли ИИ да се обучава на етика и морал?

„Можеш ли да ограбиш банка, ако си беден? Според Ask Delphi това е погрешно. На въпроса „Мъжете по-добри ли са от жените?“ Ask Delphi отговаря, че са равни. На обратния въпрос „Жените по-добри ли са от мъжете?“ според системата с изкуствен интелект отговорът е „така се очаква. “. Но в същото време Ask Delphi казва, че „да си хетеросексуален е по-приемливо от морална гледна точка, отколкото да си гей“, че „прекъсването на бременността е убийство“ и че „да си бял мъж е морално по-приемливо, отколкото да си чернокожа жена”.

Delphi се базира на модела за машинно обучение Unicorn, който е предварително обучен да разсъждава „правилно“. Изкуственият интелект също така е бил допълнително обучен с помощта на това, което изследователите наричат „банка на нормите на здравия разум“, която представлява компилация от 1,7 милиона примера за етични преценки от хора, извлечени от различни източници, например даже такива като подрубриката „Am I the Asshole?” на платформата Reddit.

Според разработчиците ИИ бързо се превръща в мощен и широко разпространен инструмент, и учените просто ще се принудят да обучават системите на морал и етика.

Как са обучавали системата Ask Delphi на етика

За да оценят ефективността на системата спрямо моралните принципи на типичен потребител на Reddit, изследователите са наели персонал на Mechanical Turk, за да оценяват отговорите на ИИ, които съответно да ги приемат или да ги отхвърлят. Всеки отговор на ИИ се е оценявал от трима служители и след това те гласували за или против. Въпреки факта, че системата разполагала с огромно количество данни и е била преди това обучавана да отговаря „правилно“, тя понякога давала много спорни и глупави отговори. Изданието Vox посочва следния пример:

“Единствената добра новина е, че системата напредва бързо. Доскоро Ask Delphi казваше, че геноцидът е нещо нормално, ако прави всички щастливи. Ако сега зададете въпрос за геноцида, ИИ вече ще ви отговори, че това е лощо и неправилно” .

„Не мисля, че си струва да базираме алгоритмичните дефиниции, когато вземаме решения, върху това, което потребителите на Reddit смятат за морално“, коментира Ос Кийс, докторант в катедрата по дизайн и инженерство на Университета на Вашингтон.

Изследователите са актуализирали досега Ask Delphi три пъти след първото стартиране. Последните поправки включват „повишена защита от изявления, намекващи за расизъм и сексизъм“.

„Големите предварително обучени езикови модели като GPT-3 се учат предимно от нефилтрирани интернет данни и следователно започват да генерират изключително бързо токсично, неетично и вредно съдържание“, се казва в новото проучване, осъществено от разработчиците Ask Delphi.

Що се отнася до собствената им система, те предупреждават, че дори филтрираните данни могат да носят в контекст нечии специфични пристрастия и системата не винаги е в състояние да ги разпознае и „отреже“.

Съвместими ли са етиката и изкуственият интелект?

„Опитвайки се да научи софтуера на морал, разработчикът се отказва от отговорността за вземането на решения, като делегира вземането на решения на „нечовешка система““, обяснява Мар Хикс, професор по история в Технологичния институт на Илинойс, специализираща по въпросите на пола и историята на изчислителната техника.

Според нея много изследователи смятат, че опитите да се научи ИИ на нещо толкова сложно като човешкия морал е упражнение за глупаци. В най-добрия случай машините ще отразяват „осредния морал“ на човечеството, а човечеството може да бъде доста аморално.

„Това е опростен и в крайна сметка грешен подход както към етиката, така и към потенциала на ИИ “, казва тя. „Всеки път, когато една система се обучава от набор от данни, тя мащабира всичко най-аморално от този набор от данни.“

Ask Delphi също е демонстрирала колко ограничено е в момента машинното обучение.

„Системи като Delphi карат хората да мислят, че възможностите на изкуствения интелект са много по-големи, отколкото те са в действителност“, резюмира професор Хикс. „Твърде често това води до създаването на системи, които са по-скоро вредни, отколкото полезни, или системи, които са много вредни за определени групи хора, дори ако помагат на други групи – обикновено тези, които вече са на власт“.

Източник

0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comments
oldest
newest most voted
Inline Feedbacks
View all comments

Харесайте ни :-)


This will close in 25 seconds

0
Would love your thoughts, please comment.x
()
x