Письменник-фантаст Айзек Азімов ще у 1942 році залишив людству три правила, які слід було врахувати при створенні штучного інтелекту. Перше і головне: робот не може завдати шкоди людині. Через 80 років людство відмовилося від цих правил. Тепер штучний інтелект може самостійно ухвалити рішення про вбивство людини.

"Автономне рішення відкривати вогонь чи ні – дійсно революція. Коли людину забрати з рівняння, вся звична мораль, етика і міжнародне гуманітарне законодавство залишаються за бортом", – розповів LIGA.net Пол Шарр, автор книги "Армія без людей: автономна зброя та майбутнє війни", віцедиректор Center for a New American Security.

"Штучний інтелект здатен обробляти величезний масив даних у реальному часі, керувати одночасно десятками, а то й сотнями машин, здійснювати маневри, які людина-пілот не здатна пережити, – додає Джордж О’Ніл, фахівець з систем штучного інтелекту компанії Northrop Grumman Corporation у розмові з LIGA.net. – З іншого боку, там, де для людини не виникає найменших труднощів, штучний інтелект може виявитися напрочуд сліпим".

Класичний сюжет "Термінатора" про судний день: чи справді розумні бойові машини загрожують людству? Про це новий спецтекст LIGA.net з відомими конструкторами, винахідниками та спеціалістами в сфері штучного інтелекту.

Розблокуйте щоб читати далі
Щоб прочитати цей матеріал потрібно оформити підписку