fbpx
Изкуствен интелектНаука и технологии

Педагози за роботи: това ли са едни от бъдещите професии ?

Освен машинно обучение за изкуствения интелект е необходимо и възпитание. Именно с аналогичната ситуация, когато учиш малките деца какво може и какво не , сравняват обучението на съвременните машини Пол Дохърти и Джеймс Уилсън, ръководители на компанията Accenture и автори на книгата „Human + Machine: Reimagining Work in the Age of AI”. В нея те разглеждат появата на редица професии, такива като мениджъри по връзка с машините, специалисти по етика на автоматизацията и други, които ще са необходими не само в бъдещето, но ще стават все по- нужни и сега.

През 2015 на година в завод на компанията Volkswagen в Германия, робот нанася на служител на компанията смъртоносни наранявания. Трагичната смърт на работника привлича вниманието на обществото към нарастващата зависимост от автоматизираните инструменти. От момента, когато компютърът започна да поема изпълнението на все по-сложни задачи се засилват опасенията, че машините може да не могат да бъдат контролирани. От компютъра HAL от филма” 2001:Космическата одисея” до киборга от „Терминатор” попкултурата само подгрява страховете на хората. Но например роботът в Германия не е извършил умишлено нападение над работника. Съгласно първите отчети, причината за трагедията се състои в програмна грешка. С други думи, за грешката е виновен друг човек.

Това ужасно произшествие е изключителен случай, но за коректното използване на изкуствения интелект първостепенна роля трябва да изразят представителите на новата професия – експерти по устойчивостта на системите с изкуствен интелект . Те трябва постоянно да работят над това как системите за изкуствен интелект да функционират правилно като инструменти, предназначени да обслужват хората, да им помагат да си изпълняват работата и да облекчават живота им. Именно така експертите по устойчивост на системите с изкуствен интелект ще помагат за разсейване за страховете от мрачното бъдеще, в което роботите ще станат разумни и ще изпреварят човешкото общество.

От резултатите на неотдавнашното изследване на Accenture, ние разбрахме, че по- малко от една трета от компаниите демонстрират високо ниво на доверие към справедливостта и контролируемостта на системите с изкуствен интелект , а също така по-малко от половината компании изпитват доверие към безопасността на тези системи. Изследването показва, че всеки трети се притеснява от ИИ, а всеки четвърти е убеден, че тази технология ще нанесе вреда на обществото. Безусловно, това показва на наличието на фундаментални проблеми, които се нуждаят от решение, което да позволи и занапред използването и развитието на технологията за изкуствен интелект. Именно тук експертите по устойчивост на системите за изкуствен интелект ще играят ключова роля.

Безусловно даже грамотно проектираните системи е вероятно да създават определени проблеми и даже в някои случаи проблемът се състои в прекалено доброто функциониране на технологията, което може да доведе до непреднамерено нанасяне на вреда. Преди много години известният писател-фантаст Айзък Азимов формулира трите закона на роботехниката:

роботът не може да причинява вреда на човек или със своето бездействие да допусне на човек да му бъди причинена вреда

роботът трябва да изпълнява всички заповеди на човек, освен в случаите, когато тези заповеди не противоречат на първия закон

роботът трябва да се грижи за своята безопасност в такава степен, че това да не противоречи на първия и втори закон.

За пръв път тези закони са изложени в разказа „Runaround” през 1942 година и са актуални и до сега. Но те са само отправната точка. Например трябва ли безпилотният автомобил, опитвайки се да защити своите пътници, да завие настрани за да не блъсне изскочило на пътя дете, като при това блъсне пешеходец? Именно заради такива въпроси на компаниите, които проектират и използват сложни системи с изкуствен интелект, ще са им нужни специалисти по безопасност на системите с изкуствен интелект. Те трябва да правят всичко от тях зависещо, за да предвидят непреднамерени резултати от действията на системите с изкуствен интелект, а също така веднага да отстраняват последствията от възникнали произшествия.

За една от най-важните функции ще отговарят мениджърите по спазване на етическите норми. Те ще наблюдават за спазването на общоприетите норми , човешките ценности и моралните принципи. Например, ако системата с изкуствен интелект по одобряване на кредитите в банка проявява дискриминация към хора, живеещи в дадени райони, такъв мениджър ще трябва да разследва и да коригира нарушенията на такива етически ( а възможно и юридически) норми. Други случаи на преднамерени действия може да не бъдат толкова явни, като например при търсене с фраза „ обичаща баба” се появяват образи само на бели жени. Мениджърът по спазване на етическите норми трябва в сътрудничество с експерт по алгоритмите да разкрива причината за възникването на такъв проблем, а след това да предприеме съответните мерки за отстраняването му.

В бъдеще ролята на изкуствения интелект в осигуряване функционирането на системите съгласно етическите принципи и моралните норми на човешкото общество, ще нараства. Изследователите от Технологическия институт в Джорджия Марк Ридъл и Брент Харисън са създали прототип на система за изкуствен интелект Quixote, която е способна да усвоява етически принципи ( например, че не трябва да се краде) от четенето на книги. По думите на Ридъл и Харисън, тази система може да открие ценности, анализирайки художествени текстове, където хората взаимодействат един с друг. Такива произведения описват културата и обществото, кодирайки с това „общи знания, социални протоколи, примери за правилно и неправилно поведение, а също така стратегии за преодоляване на трудностите”. Така „прочитайки” много истории, системата Quixote разбрала, че стремежът към ефективност е похвален, с изключение на случаите, когато това противоречи на други важни фактори. Но даже при наличие на такива иновации, мениджърите по спазване на етическите норми ще трябва да осъществяват мониторинг и да обезпечават надеждно функциониране на сложните системи.

Система с изкуствен интелект може да е технически съвършена и етична, но въпреки това да оказва негативно въздействие на организацията. Именно по тази причина на компаниите ще са им необходими специалисти по етика на автоматизация. В техните задължения ще влиза оценката от неикономическото въздействие на системите с изкуствен интелект. Един от най-важните аспекти ще е общото възприемане на новите технологии от служителите на компанията. Разбира се , те ще се страхуват да не загубят работата си заради автоматизираните системи, които могат да изпълняват необходимите функции толкова добре, колкото човек , а и по-добре.

Най-силните емоционални реакции могат да възникнат в отговор на внедряването на роботизирани системи с изкуствен интелект. Изучавайки как ние реагираме на роботите, японският специалист по роботехника Масахиро Мори открил любопитна закономерност. Колкото е по-реалистичен роботът, толкова по-силна е нашата емоционална близост и емпатия, но до определен момент. Когато роботът започне да прилича все повече на нас, всякакви недостатъци или отклонения започват да предизвикват в нас отхвърляне на робота. Но ако тези недостатъци бъдат отстранени и роботът бъде почти неотличим от човек, той отново започва да предизвиква положителни емоции и с времето изпитваната емпатия може да бъде сравнена с тази, изпитвана към човек. Рязко намаляване на емпатията, което Мори определил с термина „зловеща долина”, може да стане препятствие по пътя на успешното взаимодействие между човек и машина. Специалистите по етика на автоматизацията трябва да знаят за този феномен.

Като цяло ефективно работещите системи с изкуствен интелект е целесъобразно да бъдат подобрявани , а техните варианти да се дублират и да се внедряват в други подразделения на компанията. От друга страна е необходимо да се ограничават функциите на системи с изкуствен интелект, работещи незадоволително, а ако не могат да бъдат подобрени, да се изваждат от експлоатация. Решението на тези задачи трябва да се възлага на мениджърите за връзка с машините. Тези специалисти ще бъдат със същите функции както HR-специалистите, но те няма да контролират служителите, а системите с ИИ. Тези специалисти ще работят в отделите по „връзки с машините” и редовно ще провеждат атестации на всички системи с изкуствен интелект, внедрени в компанията. В хода на такава атестация ще е нужно да се анализират множество фактори, в това число обективната производителност на системата, а също така и поставените и цели, например стремежът за следване на корпоративните ценности.

0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comments
oldest
newest most voted
Inline Feedbacks
View all comments

Харесайте ни :-)


This will close in 25 seconds

0
Would love your thoughts, please comment.x
()
x