Пробач, Азімов: правила більше не діють. Нова історія з розробниками ШІ (текст у вас на пошті)
Письменник-фантаст Айзек Азімов ще у 1942 році залишив людству три правила, які слід було врахувати під час створення штучного інтелекту. Перше і головне: робот не може завдати шкоди людині. Через 80 років людство відмовилося від цих правил. Тепер штучний інтелект може самостійно ухвалити рішення про вбивство людини.
Дивіться нас на YouTube: пояснюємо складні речі простими словами
"Автономне ухвалення рішення, відкривати вогонь чи ні, – дійсно революція. Коли людину забрати з рівняння, вся звична мораль, етика і міжнародне гуманітарне законодавство залишаються за бортом", – розповів LIGA.net Пол Шарр, автор книги "Армія без людей: автономна зброя та майбутнє війни", віцедиректор Center for a New American Security.
"Штучний інтелект здатен обробляти величезний масив даних у реальному часі, керувати одночасно десятками, а то й сотнями машин, здійснювати маневри, які людина-пілот не здатна пережити, – додає Джордж О’Ніл, фахівець з систем штучного інтелекту компанії Northrop Grumman Corporation у розмові з LIGA.net. – З іншого боку, там, де для людини не виникає найменших труднощів, штучний інтелект може виявитися напрочуд сліпим".
Класичний сюжет "Термінатора" про судний день: чи справді розумні бойові машини загрожують людству? Про це новий спецтекст LIGA.net з конструкторами, винахідниками та спеціалістами у сфері штучного інтелекту.
Читайте також: Час сталевого кулака Європи. Нова історія LIGA.net з генералами Євросоюзу