Пробач, Азімов: правила більше не діють. Нова історія з розробниками ШІ (текст у вас на пошті)
![Пробач, Азімов: правила більше не діють. Нова історія з розробниками ШІ (текст у вас на пошті) Пробач, Азімов: правила більше не діють. Нова історія з розробниками ШІ (текст у вас на пошті)](https://wsrv.nl/?output=webp&url=www.liga.net/images/general/2022/01/20/20220120092850-6734.png&w=1280&fit=cover&dpr=2)
Письменник-фантаст Айзек Азімов ще у 1942 році залишив людству три правила, які слід було врахувати під час створення штучного інтелекту. Перше і головне: робот не може завдати шкоди людині. Через 80 років людство відмовилося від цих правил. Тепер штучний інтелект може самостійно ухвалити рішення про вбивство людини.
Дивіться нас на YouTube: пояснюємо складні речі простими словами
"Автономне ухвалення рішення, відкривати вогонь чи ні, – дійсно революція. Коли людину забрати з рівняння, вся звична мораль, етика і міжнародне гуманітарне законодавство залишаються за бортом", – розповів LIGA.net Пол Шарр, автор книги "Армія без людей: автономна зброя та майбутнє війни", віцедиректор Center for a New American Security.
![Пробач, Азімов: правила більше не діють. Нова історія з розробниками ШІ (текст у вас на пошті)](https://www.liga.net/images/general/2022/02/01/20220201184829-7422.jpg)
"Штучний інтелект здатен обробляти величезний масив даних у реальному часі, керувати одночасно десятками, а то й сотнями машин, здійснювати маневри, які людина-пілот не здатна пережити, – додає Джордж О’Ніл, фахівець з систем штучного інтелекту компанії Northrop Grumman Corporation у розмові з LIGA.net. – З іншого боку, там, де для людини не виникає найменших труднощів, штучний інтелект може виявитися напрочуд сліпим".
Класичний сюжет "Термінатора" про судний день: чи справді розумні бойові машини загрожують людству? Про це новий спецтекст LIGA.net з конструкторами, винахідниками та спеціалістами у сфері штучного інтелекту.
Читайте також: Час сталевого кулака Європи. Нова історія LIGA.net з генералами Євросоюзу