„Ще може да убива и да контролира живота ви“: бивш топ мениджър на Google разкрива 4 основни заплахи от изкуствения интелект
Машините вече вземат съдбоносни решения, последствията от които не могат да се предскажат или да се обяснят. Кай-фу Ли, бивш висш служител на Google, Apple и Microsoft и световно известен експерт в областта на ИИ, идентифицира четири основни заплахи, в които изкуственият интелект представлява опасност за човечеството. Експертът споделя за тях в свое интервю за Yahoo! Финанси.
Кай-фу Лий участва в разработването на изкуствен интелект от десетилетия, като най-вече участва в създаването на технологии за разпознаване на реч и генериране на автоматизирана реч.
Той е завършил Колумбийския университет и получава докторска степен в Университета Карнеги Мелън. Работил е първоначално в Apple и две години в Silicone Graphics. След това се премества в Microsoft, където става един от вицепрезидентите на компанията. През 2005 г. Ли неочаквано решава да напусне Microsoft, за да оглави Google Китай. Този преход е бил причина за правна битка между двата технологични гиганта, но завършва добре за всички страни.
През 2009 г. Кай-Фу Ли основава и става изпълнителен директор на компанията Sinovation Ventures в Китай, която е с активи над 2.5 милиарда долара.Списание Times го включва в списъка на 100 -те най-влиятелни хора в света. Той има над 50 милиона последователи в социалните мрежи. Ли е автор на една от най знаковите книги, разкриваща развитието на изкуствения интелект на планетата „Суперсилите в изкуствения интелект“ (“AI Superpowers”).
Като най-голяма и главна опасност Кай-Фу Ли определя „умните“ автономни оръжия, които могат да бъдат научени да убиват хора. Според Лий такива технологии завинаги ще променят войните поради своята достъпност, точност, скорост на програмиране, тоест ще бъде почти невъзможно да се идентифицират извършителите на военни престъпления. Вече всеки ентусиаст, похарчвайки $ 1000, може да създаде летяща машина-убиец,. Той призова, ако не бъдат тотално забранени оръжията с използване на изкуствен интелект, то поне да се намерят правилните механизми за регулиране на техния оборот.
„Представете си дрон, който може да открива конкретни хора, използвайки система за лицево разпознаване или нещо подобно “, казва експертът. “Мисля, че това променя бъдещето на тероризма, защото терористите вече няма да трябва да жертват живота си, като нападат мирни граждани. Всяка терористична група може да използва 10 000 от тези дронове, за да извърши нещо толкова ужасно като геноцид.”
Според Кай-Фу вторият голям риск, свързан с използването на изкуствен интелект, са непреднамерените негативни последици, които възникват, когато ИИ се фокусира върху една задача, като пренебрегва други. В качеството на пример, бившият топ мениджър посочва препоръчващите алгоритми на YouTube, които предлагат видеоклипове, които могат да повлияят негативно на мисленето на потребителите.
Именно този проблем се появи и в скорошно разследване на The Wall Street Journal. Изданието е установило, че Instagram влияе негативно върху начина, по който младите девойки в тийнейджърска възраст възприемат външния си вид. Освен това младите хора свързват социалните медии с повишени нива на тревожност и депресия.
Друга заплаха се явява събирането на поверителна информация за хората. От една страна, машинните алгоритми могат да следят активността на потребителите в мрежата, да стават все по-„умни“ и да си вършат работата по-добре, например да предлагат подходяща музика според личните вкусове на всеки. Но от друга страна, те събират данни, които могат да помогнат за компрометиране на даден човек.
Решенията, които се вземат от изкуствения интелект, ще са особено важни в ситуации, от които зависи човешки живот. По правило машината не може да обясни защо е взела определено решение, но е програмирана така, че да взема очевидно по-печеливши решения, но и те могат да бъдат много трудни. Кай-фу Ли дава този пример: по релсите се движи пътнически влак и виждате, че те са прекъснати. Можете обаче да прехвърлите влака на други релси, за да спасите пътниците, но в този случай тримата работници, които ремонтират запасния релсов път, ще загинат. Възможно ли е да се смята решението за преминаване към алтернативния релсов път за „печелившо“?
“Може ли изкуственият интелект да ни обясни защо е взел определени решения, когато става въпрос за автоматичен контрол на автономни превозни средства, или за вземане на решения по време на хирургични операции? Това се превръща в сериозен проблем”, отбелязва експертът.