Изкуственият интелект не трябва да плаче: как да предотвратим революцията на роботите
Директорът на Центъра за когнитивни изследвания към Университета Тафтс (Tafts University) Даниел Денет обяснява, че въобще не е задължително и даже вредно да се правят роботи, приличащи на човек.
Когато бащата на кибернетиката Роберт Винер през 1950 година написал своята книга „Хуманното използване на хората: кибернетика и общество” основните структурни елементи били вакуумните тръби, а реално в света функционирали няколко електронно-изчислителни машини.
Но той си представял бъдещето, в което ние живеем сега, впечатляващо подробно, и е допуснал само няколко явни грешки. Както повечето от другите ранни философи на изкуствения интелект, той признавал , че ИИ не само ще подражава на хората и ще ги заменя в много интелектуални дейности, но и ще ги променя при тези процеси. „ Ние не представляваме вещество, което се съхранява във форма, която се увековечава”.
Например ние сме съгласни да платим повече за да получим достъп до новите технологии и да разширим възможностите си. Но много скоро ние ставаме толкова зависими от новите инструменти, че губим способността си на процъфтяваме без тях. Възможността става необходимост.
Това е много, много стара история с множество известни ни глави в еволюцията. Болшинството млекопитаещи могат да синтезират витамин С, но приматите, избирайки хранене, състоящо се преди всичко от плодове, са загубили тази възможност. Човек сега зависи от дрехите, които носи в различните сезони, от приготвянето на храна, от приемането на витамини, правенето на ваксини, използването на кредитни карти, смартфони и интернет. Скоро така ще бъде и с изкуствения интелект.
Винер е предсказал някои от тези проблеми, които Алън Тюринг и други оптимисти за ИИ в значителна степен са пропуснали да предположат. По неговите думи, реалната опасност се състои в това, че машините , които сами по себе си са безпомощни, могат да използват човек или група от хора за усилване контрола върху останалите представители на човешкия род. Политическите лидери могат да се опитат да контролират населението не чрез самите машини, а с помощта на механически политически методи, които са характерни за машините.
Иновациите в областта цифровото аудио и видеовъзпроизвеждане позволяват , заплащайки не особено голяма цена, да се откажем от аналоговите формати и да си обезпечим възпроизвеждане с почти идеална точност.
Но тук има огромни скрити опасности. Министерството на истината от „1984” на Оруел може без проблеми да възникне. Благодарение на ИИ стават достъпни методите за създаване на фалшиви аудио- и видеозаписи, които практически не могат да бъдат различени от истинските. Вследствие на това методите за разследване, които ние сме възприели, като подразбиращи се в последните 150 години, стават безкрайно остарели.
Ще се откажем ли ние от кратката епоха на фотографските доказателства и ще се върнем ли в досегашния свят, в които човешката памет и доверие се смятаха за златен стандарт. Или може би ще се разработят нови инструменти за защита и нападение в надпреварата за истината?
Един от тревожните уроци от неотдавнашния ни опит се състои в това, че да се унищожи нечия репутация е много по-евтино, отколкото да я защитиш. Винер още тогава е написал „В дългосрочна перспектива няма да има разлика между нашето въоръжение и въоръжението на нашите врагове”. Информационният век е век на дезинформацията.
Какво може да се направи? Ключовата фраза е почти небрежното наблюдение на Винер, че „сами по себе си машините са безпомощни”. Както вече съм казвал, ние създаваме инструменти, а не съратници, и е много опасно да се недооценява тази разлика. Напротив, ние трябва да се стремим да я подчертаваме и да я закрепим с помощта на политически и правови иновации.
ИИ в своите сегашни прояви паразитира върху човешкия интелект. Той абсолютно без никаква оценка усвоява това, което е произведено от хората и извлича всичко това, включително и най-пагубните навици. Тези машини (засега) нямат цели, стратегии или възможности за самокритика и иновации, които да им позволяват да излязат извън границите на своите бази данни, осъзнавайки собственото си мислене и собствените си цели.
По думите на Винер, те са безпомощни, не защото са сковани и ограничени, а защото не са способни „ да се ръководят от причини” (по думите на Кант) от тях представени. Важното е да се продължава в този дух, а за това ще се изискват известни усилия.
В дългосрочна перспектива „силният” универсален изкуствен интелект по принцип е възможен, но не и желателен. Много по-ограничен ИИ, който днес практически е възможен, не е задължително да се превърне в зло. Но той представлява определена опасност, главно заради това, че той може да възприеме сам себе си като силен ИИ!
Разликата между сегашните системи и научно-фантастичните изобретения, доминиращи в човешките умове, както и преди е огромна. Въпреки че много непрофесионалисти, а също и експерти, недооценяват това. Но нека да разгледаме Dr.Watson, създаден от IBM.
Това е резултат от много мащабен процес на изследвания и разработки, обхващащи почти столетие на интелектуално проектиране и изискващо използването на хиляди пъти повече енергия , отколкото използваната от човешкия мозък. Победата на Dr.Watson в легендарна игра за знания Jeopardy! беше истински триумф, който стана възможен благодарение на някои формални ограничения в правилата на играта ( едно от тях: до известна степен отказ от универсалността и човешкия фактор, за да се получи шоу, радващо публиката ).
Въпреки заблуждаващата реклама на IBM, обясняваща разговорните способности на Dr.Watson, възможността за превръщането му в многофункционален агент, е толкова трудно, колкото превръщането на ръчен калкулатор в Dr.Watson. Той по-скоро прилича на малкия мозък или на амигдала, отколкото на цялостен разум. В най-добрия случай той би бил в ролята на система със специално предназначение, която може да играе вспомагателна роля, без да се се занимава с формирането на цели и планове.
Защо трябва да се дава на Dr.Watson творческа автономия? Възможно знаменитият тест на Алън Тюринг ни вкарва в капан, където ние се стремим да създадем илюзия за реален човек зад екрана. От както Тюринг формулира задачата, състояща се в това да се заблудят съдиите, създателите на ИИ се опитват да направят именно това. Те придават на компютрите меки човекоподобни черти, провеждайки „диснейфикация”, която да очарова и разоръжи непосветените. Много ранният чат- бот ELIZA, създаден от Джоузеф Вайзенбаум стана пионер в повърхностно създадената илюзия. Вайзенбаум се притесняваше от тази лекота , с която смехотворно проста и повърхностна програма може да убеди хората в това, че те водят сериозен душевен разговор.
Той е прав в своето безпокойство. Ако ние нещо сме разбрали от ограничените тестове на Тюринг, провеждани в рамките за ежегодната програма на Лебнер, то е това, че даже най-умните хора, които не разбират възможностите на компютърното програмиране, леко се подават на достатъчно прости трикове.
Отношението на хората, занимаващи се в сферата на ИИ, към тези методи на преструвките на „потребителския интерфейс” варира от презрение до възторг, с общото разбиране, че тези трикове даже и повърхностни, могат да имат мощен ефект. И би било много полезно директно да се признае, че лъжливата реклама не изисква възторг, а осъждане.
Как може това да се постигне? В момента , в който осъзнаем, че хората вземат жизнено важни решения на основата на „съвети” на ИИ, чиито вътрешни операции на практика са недостижими, ще стане бъде изключително важно да се достигне до моралната и юридическа отговорност и отчетност за тези, които по някакъв начин подбуждат хората да се доверяват на системите повече от разумното.
Системите на ИИ са изключително мощни инструменти, толкова мощни, че даже на експертите понякога им е трудно да оценят резултатите от „съжденията” на инструментите. Затова ако потребителите на тези инструменти могат да получат финансова или друга изгода, използвайки ги в непозната област, е необходимо да се подхожда към това изключително отговорно и внимателно, с максимален контрол и обосновка.
Лицензираните оператори на тези системи, както лицензираните фармацевти, кранисти и други специалисти, чиито грешки могат да имат тежки последствия , могат под натиска на застрохователните компании, да накарат създателите на ИИ да намерят слабите места и недостатъци в техните продукти.
Можем да си представим нещо противоположно на теста на Тюринг, в което съдията трябва непременно да открие слабите места, нарушаването на границите, пропуските в системата, като в противен случай лиценза няма да бъде издаден. За да се получи сертификат на съдия ще бъде необходима определена ментална подготовка. Стремежът ни да предадем на компютърния „разум” човешки мисловни възможности е много силен. Струва ни се , че отказът да му признаем човешки качества е своеобразен шовинизъм. Даже и най-опитните оператори на системите за изкуствен интелект понякога се поддават на изкушението да се „сприятелят” със своите инструменти, дори за да намалят дискомфорта си при изпълнението на поставените задачи.
На нас не са ни нужни изкуствени съзнателни агенти. Съществува излишък от естествени съзнателни елементи : те са достатъчни за решаване на всякакви задачи , предназначени за такива като тях особени и превилегировани същества. На нас са ни нужни интелектуални инструменти. Инструментите нямат право и не трябва да изпитват чувства, които могат да бъдат засегнати. Не бива да се отнасят с негодование от „ругатните”, които могат да се стоварят върху тях от неумели оператори.
Веднъж на семинар, посветен на изкуствените агенти и автономията им, поставих задача пред студентите да си представят техническите характеристики на робот, който може да подписва гражданско-правови договор, но не като пълномощник на собственика си, а сам по себе си. Въпросът не е в това как той да разбере положението си или как да постави подписа си, а в това какъв правов статут има той като морално отговорен агент. Такива договори не могат да подписват малки деца, както и недееспособни хора.
Проблемът на роботите, които искат да достигнат висок статут,ще се състои в това, че подобно на Супермен, те са твърде неуязвими, за да дават убедителни обещания. Какво ще се случи, ако например, те се откажат от собствените си думи? Какво ще бъде наказанието за тях за нарушаване на обещание? Ще бъдат затворени в килия, или нещо по-правдоподобно, ще бъдат разглобени? Затварянето едва ли ще им създаде някакво неудобство, ако ние предварително не вкараме в тях някаква изкуствена страст към пътешествия, която не може да бъде игнорирана или да бъде изключена самостоятелно (и би било трудно да се организира такова надеждно решение , отчитайки предполагаемата хитрост и самопознание на ИИ). Демонтажът на ИИ не го убива , ако информацията , съхраняваща се в неговия проект и програмното му осигуряване, се запазва.
Лекотата на цифровия запис и предаването на информация е пробив, който позволява на програмното осигуряване и данните да бъдат фактически безсмъртни.Това прави роботите неуязвими (във всеки случай тези роботи, които представляват код и памет). Ако това не е очевидно, помислете за това как би повлияло на човешки морал, ако ние можехме да си правим «резервни копия» всяка седмица. Да скочиш с главата надолу от висок мост без обезопасително въже в събота е приключение, което вие няма да си спомняте, когато в неделя сутринта ви възстановят от резервно копие, направено в петък вечерта. Но след това вие ще можете да се насладите на видеозаписа, направен при вашата очевидно безстрашна смърт.
Затова ние трябва да създаваме не съзнателни човекоподобни агенти, а съвършено нов вид същност – подобие на оракул, без съвест, без страх от смъртта, без отвличащи чувства на любов и ненавист, без личност ( но с всички видове слабости и особености, които без съмнение биха били идентифицирани като «личност» на системата ).
Ще е трудно да се научим да живеем с тях, даже и да не се отвличаме на такива фантазии като технологическата сингулярност, когато ИИ ще ни зароби в буквалния смисъл. Предназначението на хората скоро ще се измени -за пореден път – завинаги, но ние можем да поемем контрола и отговорността за своя път на развитие.