Експертите на EPIC представиха „12-те закона на роботиката“

  EPIC  „12-   “

Група защитници на правата на човека от американската неправителствена организация Electronic Privacy Information Center (EPIC) представи набор от правила, които би трябвало да защитят човечеството от бъдещ неконтролиран изкуствен интелект.

Експертите далеч не се задоволиха трите закона на роботиката на Азимов. Списъкът с „12-те закона на роботиката“ бе публикуван на 23 октомври тази година и е доста сложен и дълъг.

Авторите отбелязват, че изкуственият интелект вече оказва все по-голямо влияние на хората – от отпускането на кредит до получаване на работа или присъда. Ето защо, в тази сфера е важно са очертаят основните принципи, които да защитят правата на човека и които няма да допуснат неетични и дискриминационни решения от страна на роботизираните системи.

12-те принципа за етично използване на изкуствения интелектПраво на прозрачност. Всички хора имат правото да знаят факторите, логиката и технологиите, които използва машината, за да вземе решение, което ги засягаПравото на човешко решение. Само хората, а не алгоритмите могат да вземат окончателното решениеЗадължителна идентификация. Организацията, отговорна за ИИ, трябва да е известна на обществотоСправедливост. Институциите трябва да гарантират, че ИИ системите не са пристрастни и не присвояват на хората точки за социален рейтинг (както прави Китай)Отговорност и оценка. ИИ може да се използва само след предварителни тестове и подробни описания на нейните преимущества, цели и задачи. Разработчиците носят пълната отговорност за решенията, взети от ИИРешенията, взети от ИИ трябва да бъдат точни, надеждни и обоснованиКачество на данните. Компаниите задължително трябва да указват източника на данни, използвани за обучаването на ИИ. Тези данни трябва да са качествени и релевантни.Безопасност. Институциите трябва да оценят рисковете от внедряването на ИИКиберсигурност. Разработчиците трябва да осигурят надеждна защита от несанкциониран достъпИИ няма право да профилира хората без тяхното съгласиеПреди внедряването на ИИ, независима публична страна трябва да оцени рисковете и да провери механизмите за контрол и безопасностЗадължителна възможност за прекратяване работата на ИИ. Ако човешкият контрол е невъзможен, създателят на съответния ИИ трябва да е осигурил начин за неговото спиране
Коментари
Все още няма коментари
Статистика
Прегледи 97
Коментари 0
Рейтинг
Добавена на31 Окт 2018
ИзточникKaldata

Тагове
EPIC