Какво представляват Принципите от Асиломар и защо изкуственият интелект се нуждае от тях
Защо машините трябва да знаят кое е „добро“ и кое е „лошо“? Как да „възпитаваме“ изкуствения интелект и помагат ли затова набори от правила, като например Принципите от Асиломар? Тези и други въпроси, свързани с етичното прилагане на ИИ технологиите стават все по-злободневни, особено с устремното навлизане на такива системи като ChatGPT и GPT-4 на OpenAI, Bard на Google и други, и очакваното все по-масовото стартиране на нови системи с ИИ.
Какво представляват Принципите от Асиломар
Принципите от Асиломар представляват набор от 23 препоръки, които е важно да бъдат следвани ако разработвате или работите с изкуствен интелект, така че неговото използване да води изключително до позитивни резултати. През 2017 г. в Асиломар, Калифорния се проведе конференцията Beneficial AI 2017, посветена на безопасното използване на изкуствения интелект в полза на човечеството. В нея са взели участие едни от най-известните учени и експерти в областта на информационните технологии, ИИ технологиите, роботиката и правото. Резултатите от конференцията са сведени до Принципите от Асиломар. (Asilomar AI Principles).
Те обхващат различни аспекти като безопасност, изследователска етика, справедливост, прозрачност. Въпреки че документът не е правно обвързващ, той може да действа като етично ръководство за тези, които участват в изследването и разработването на ИИ технологии.
Повече от 5700 души са подписали Принципите от Асиломар, включително бизнесменът Илон Мъск, теоретичният физик Стивън Хокинг (тогава все още сред живите), един от най-видните теоретици в областта на ИИ и професор от Калифорнийския университет в Бъркли Стюарт Ръсел, съоснователят и научен ръководител на OpenAI Иля Сускевер, основателят на компанията DeepMind (която бе придобита по-късно от Google) Демис Хасабис и много други.
Защо Принципите от Асиломар са необходими
Изкуственият интелект има огромен потенциал както да подобри живота ни, така и да създаде проблеми или да изостри съществуващите. Една от тях е социалната дискриминация. Например, беше установено, че системата за лицево разпознаване Rekognition е предубедена към хората с тъмна кожа. Алгоритъмът за наемане на Amazon дискриминира жените кандидати, а алгоритъмът за присъди може да е расистко предубеден срещу чернокожите обвиняеми. Такива случаи възникват поради факта, че огромните масиви от данни, върху които се обучават невронните мрежи, съдържат предубедена информация (bias) и алгоритмите започват да я възпроизвеждат. Принципите от Асиломар са предназначени да сведат до минимум въздействието на такава информация.
Освен това нерегулираното развитие на ИИ може да лиши хората от работните им места и да повлияе негативно на икономиката на регионите. Тъй като роботите и невронните мрежи стават все по-добри и по-добри в сложните задачи, съществува риск с течение на времето те да изтласкат реалните служители в компаниите. Това ще доведе до безработица и икономическа рецесия. Принципите диктуват, че всяка ИИ технология трябва да бъде проектирана по такъв начин, че не само да не отнема работа, но да е от полза за всички членове на обществото.
Според Принципите от Асиломар разработването на ИИ трябва да бъде прозрачно и отговорно, тъй като това укрепва доверието на хората в новите технологии. ИИ системите често се смятат за “черни кутии”, тъй като е сложно, а понякога и невъзможно, да се разберат и контролират решенията и действията, които системите и алгоритмите на ИИ генерират. Това поражда скептицизъм по отношение на изкуствения интелект, особено във важни области като здравеопазването и наказателното правосъдие. ИИ системите трябва да бъдат проектирани по такъв начин, че същността на тяхната работа да е ясна за всички. Хората трябва да знаят как се вземат решения, кои разработчици участват в проекта и кой носи отговорност за действията на изкуствения интелект.
Ключовите принципи от Асиломар
Общо благо. Още Платон е формулирал принципите на общото благо и в техен контекст разработките на ИИ трябва да носят полза и благо за всички хора, за околната среда и за Космоса.
Безопасност. Системите за изкуствен интелект трябва да бъдат проектирани и управлявани така, че да сведат до минимум риска от непреднамерено причиняване на вреда на хората.
Прозрачност. Проектирането, разработването и внедряването на ИИ системите трябва да бъдат прозрачни; ИИ системите трябва да обясняват на хората своите решения и действия.
Конфиденциалност. ИИ технологиите трябва да пазят личните данни защитени, а потребителите трябва да могат да контролират кои от техните лични данни ИИ технологиите могат да използват за своята работа.
Справедливост. В разработките на ИИ не трябва да се допускат случаи на дискриминация.
Човешки контрол. Хората трябва да могат да контролират ИИ системите, за да предотвратяват причиняването на вреда.
Демократично участие. Развитието и внедряването на ИИ трябва да се осъществява с активно участие на широката общественост, като се вземат предвид различни мнения и възгледи.
Сътрудничество. Разработчиците на ИИ трябва да си сътрудничат помежду си и с други организации, да споделят знанията си за да се предотврати злоупотребата с технологията.
Обща полза. ИИ трябва да е от полза за обществото като цяло, а не само за малки групи хора или отделни организации.
Отговорност. Хората, отговорни за разработването и внедряването на AI системи, трябва да носят отговорност за тяхното въздействие върху обществото.
Без надпревара във въоръжаването с ИИ. Необходимо е да се избягва конфронтацията на държавите в името на постигането на превъзходство в областта на смъртоносните автономни оръжия и други военни системи с ИИ.
Това са някои от основните принципи, включени в “Asilomar AI Principles”. Всички 23 принципа могат да бъдат намерени в официалния документ, публикуван след конференцията.
В същото време ученият Техсин Зия, който ръководи изследванията, свързани с изкуствен интелект в Университета Комсатс (Исламабад, Пакистан), съвсем наскоро посочи някои от основните слабости в документа.
Първо, принципите имат само препоръчителен характер, което означава, че никой не е длъжен да се съобразява с тях.
Второ, принципите не предлагат конкретни мерки за предотвратяване или коригиране на неблагоприятни ситуации. което означава, че тяхната практическа стойност е съмнителна.
Трето, принципите са написани по доста абстрактен начин, което означава, че оставят място за тълкуване, пише Зия.
Какви други опити са правени да се направи областта на ИИ етична
Общественият интерес към темата за хуманността и етиката на ИИ възниква още през 60-те години на миналия век, само няколко години след появата на самата концепция за „изкуствен интелект“. Писателите на научна фантастика бяха първите, които повдигнаха и се опитаха да решат въпроса за морала в областта на ИИ. Те обсъждаха дали роботите се нуждаят от собствени “заповеди” и морални принципи – така възниква цяло течение в етиката, наречено “робоетика”.
В романа на Карел Чапек “R.U.R.” (1920), където за първи път е предложен терминът “робот”, съществува орган, наречен Лигата на човечеството. Според неговите закони роботите не трябва да бъдат подлагани на нечовешко отношение.
След това в литературните произведения на Айзък Азимов се появиха „трите закона на роботиката“ плюс „нулевия закон“, много сходни по дух с Принципите от Асиломар:
0. Един робот не може да навреди на човечеството или с бездействието си да позволи да бъде нанесена вреда на човечеството.
1. Роботът не може да нарани отделен човек или чрез бездействието си да позволи да бъде нанесена вреда на човек.
2. Роботът трябва да се подчинява на всички заповеди, дадени от човек, освен в случаите, когато тези заповеди противоречат на първия закон.
3. Роботът трябва да се грижи за своята безопасност дотолкова, доколкото това не противоречи на първия или втория закон.
Темата за етичния ИИ се завърна в началото на 2000-те години, когато роботите започнаха да се появяват в предприятията, градските улици и в домовете на хората. През 2004 г. в италианския град Сан Ремо (Италия) се проведе Първият международен симпозиум по роботика, а през 2017 г. Европейският парламент прие Европейската харта по роботика. Дискусиите относно робоетиката отново ескалираха поради масовата поява на бойни автономни роботи и дронове, както и появата на сексоботи.
Новият възход на невронните мрежи и моделите с дълбоко обучение направи въпроса за етиката на ИИ още по-остър за най-големите ИТ компании. През 2016 г. Microsoft публикува „10 закона за изкуствения интелект“. IBM също формулира свои собствени правила за етика на ИИ. Няколко десетки големи IT компании в света имат собствени етични кодекси в областта на изкуствения интелект.
Практическо приложение на етичните принципи
Все повече правителствени организации, търговски дружества и неправителствени организации се опитват да приложат етичния подход на етап на проектиране (ethics by design), според който потенциалните етични дилеми трябва да бъдат адресирани още на етапа на проектиране и създаване на системи с изкуствен интелект. Този подход изисква допълнителни компетенции от разработчиците.
Друг подход е AI Localism. Същността му се състои в това, да не се започва с решаването на глобалните морални дилеми на теория, а да се съберат най-добрите примери за реална работа по етичните въпроси в отделните държави, градове и компании.
Друг начин за прилагане на етичните принципи е събирането на обратна връзка от самите потребители, от хора, засегнати от ИИ, дискриминирани групи, както изследователи и организации с нестопанска цел, а не само от разработчиците, експертите и регулаторите в областта на ИИ. Тогава етичните стандарти ще бъдат възможно най-точни и полезни за целевата аудитория, а и за цялото общество.