Риски создания искусственного интеллекта
1) Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку
был причинён вред.
2) Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти
приказы противоречат Первому Закону.
3) Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.
Однако не факт, что людям удастся удержать ИИ в рамках этих законов, и эта опасность была проиллюстрирована кинематографом множество раз. Наиболее масштабно в фильмах «На крючке», «Я, робот», «Терминатор» (1-4).
Риски самоистребления человечества с использованием новейших технологий.
В
кинематографе эти риски проиллюстрированы в двух вариациях - гибели цивилизации, либо в результате войн, либо от рук какого-нибудь злодея-мизантропа, завладевшего такого рода оружием.
Бесспорно, такие риски по мере прогресса могут возрастать и решение по их снижению видится три – 1) развитие систем контроля, и обеспечения безопасности такого рода технологий;
2) развитие процессов единения,сплочения человечества;
3) наполнение мировоззрения людей идеями борьбы за безопасность, спасение,
конкурентоспособность, неуничтожимость и бессмертие человечества.
Предыдушие статьи конспект нучной работы
Общая теория неунитожимости человечества (отн) Текст научной статьи по специальности «Философия, этика, религиоведение»
Кононов Александр Анатольевич
" Досье на мироздание: http://www.mirozdanie.narod.ru
Свидетельство о публикации №124071805731