Дари
Изкуствен интелектНаука и технологии

Европа отказа на изкуствения интелект правото на избор дали да убива

Изкуственият интелект не трябва самостоятелно да взема решения за използването на оръжия, а използването на автономни бойни системи във въоръжени конфликти следва да се забрани на международно ниво. Тези постановки са влезли в новия доклад на Комитета по юридическите въпроси към Европейския парламент, пише изданието Jane’s.

Активните разработки в областта на създаването на системи с изкуствен интелект доведоха до това, че те започнаха все по-активно да се внедряват във военната област.

В частност, разработват се системи, позволяващи на безпилотни летателни апарати както автоматично да откриват и да приоритезират цели, така и да съпровождат пилотирани летателни апарати. Водят се разработки и в много други направления, така че в бъдеще явно изкуственият интелект ще придобива все по-голяма важност във военната сфера.

Именно това активно разработване и внедряване на системи с ИИ започва да предизвиква все повече въпроси от етически характер. В частност, към момента не е ясно доколко е правомерно да се използват във военни конфликти автономни бойни системи с ИИ и каква заплаха представляват те за мирното население.

По оценката на Комитета по юридическите въпроси към Европарламента, автономните системи за въоръжение могат да бъдат използвани в евентуални военни действия, единствено в случай, че решение за откриване на огън се взема от човек.

„Автономните бойни системи следва да се използват само в краен случай и тази крачка може да бъде призната за законна, само ако бъде управлявана от човек, тъй като единствено човек трябва да прави избора между живота и смъртта“ – се казва в доклада.

При това трябва да се съблюдават условия, при които в случай на необходимост, ще може да бъде идентифициран човека, управляващ автономните бойни системи. Например, това ще е необходимо в случай на търсенето на виновност в признато незаконно използване на оръжие.

В същата насока се работи и в САЩ. В началото на 2020 година от Министерството на отбраната на САЩ бяха формулирани пет етични принципа за използване на системи с изкуствен интелект с военни цели:

Отговорност. Военният персонал трябва с повишено внимание да оценява действията на изкуствения интелект, оставайки напълно отговорен за разработването и използването на системите с ИИ.

Безпристрастност. Министерството на отбраната на САЩ трябва да предприема крачки за минимизиране на нежелателни отклонения във възможностите на системите с изкуствен интелект.

Проследяване. Военните системи с ИИ и техните възможности трябва да се разработват и внедряват по такъв начин, че персоналът да има съответното ниво на разбиране на технологиите, процесите на разработване и методите за използване на тези системи. За военния персонал трябва да са достъпни методологиите, данните и документацията, отнасящи се за използваните системи с изкуствен интелект.

Надеждност. Възможностите на бойните системи с изкуствен интелект трябва да бъдат еднозначни и ясно формулирани. Безопасността и ефективността на тези възможности трябва да се проверяват постоянно от изпитания и да се потвърждават в течение на целия срок на използване.

Подчинение. Военните системи с ИИ трябва да изпълняват предназначените за тях задачи, но военните трябва да имат възможност да откриват и да предотвратяват нежелателни последствия от използването на изкуствен интелект. Военните също така трябва да имат възможност да извеждат извън бойните действия и да изключват системи с ИИ, при които са забелязани отклонения от нормалното им функциониране.

Още преди да бъдат публикувани етическите принципи за използването на системи с ИИ, началникът на Обединения център за изкуствен интелект на САЩ генерал-лейтенант Джек Шанехън заяви, че военните няма да оборудват центровете за управление на стратегическо въоръжение със системи с изкуствен интелект. По неговите думи, за евентуалното изстрелване на балестични ракети винаги ще отговарят хора, тъй като решението за използване на оръжия за масово поразяване трябва да бъде прерогатив единствено на човек.

0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comments
oldest
newest most voted
Inline Feedbacks
View all comments

Харесайте ни :-)


This will close in 25 seconds

0
Would love your thoughts, please comment.x
()
x