Непредсказуемый ИИ

 
Из интернета
.............
Один из наиболее известных мировых специалистов по безопасности искусственного интеллекта, профессор Университета Луисвилля Роман Ямпольский, заявил, что вероятность уничтожения человеческой цивилизации из-за ИИ в течение ближайших 100 лет составляет 99,9%. По его словам, человечество уже вступило в фазу, где контроль над технологиями стремительно ускользает..
В многочасовом разговоре с подкастером Лексом Фридманом Ямпольский подчеркнул: ни одну из существующих ИИ-моделей нельзя считать безопасной. Все системы, созданные к настоящему моменту, по его оценке, содержат фундаментальные уязвимости — от скрытых ошибок в коде до неспособности людей полностью понимать логику решений алгоритмов.
Эксперт утверждает, что ключевая угроза — не злонамеренный ИИ, а непредсказуемость сложных автономных систем, которые начинают действовать вне первоначальных сценариев. По его словам, даже при благих целях результат может оказаться катастрофическим.
Ямпольский сравнивает нынешнюю ситуацию с «глобальной гонкой без тормозов»: государства и корпорации ускоряют разработку ИИ ради экономического и военного превосходства, жертвуя безопасностью. При этом отказ от участия в гонке, по его словам, приводит к стратегическому проигрышу — создавая замкнутый круг.
Эти выводы развиваются в его книге «ИИ: необъяснимый, непредсказуемый, неконтролируемый», где он подробно описывает экзистенциальные риски, включая сценарии полной потери человеческого контроля над ключевыми процессами.
Не все учёные согласны с такой оценкой. Например, исследование университетов Оксфорда и Бонна, основанное на опросе более 2700 специалистов, оценивает риск вымирания человечества из-за ИИ примерно в 5%. Однако сами авторы признают: спор идёт не о наличии риска, а о его величине.
Даже скептики сходятся в одном: искусственный интеллект уже меняет рынки труда, систему безопасности и основы общества, а темпы этих изменений опережают способность государств их регулировать. Вопрос, подчёркивает Ямпольский, уже не в удобстве технологий, а в том, переживёт ли их человечество.


Рецензии
В каком-то иностранном источнике прочла о такой ситуации. Оператор обучал ИИ стрелять по цели. С каждым выстрелом результаты улучшались. Но когда оператор видел, что цель будет поражена, он выстрел отменял. Так повторилось несколько раз. После очередного запрета оператор увидел на мониторе надпись: если и сейчас ты не позволишь мне поразить цель, я тебя убью...

Фёкла   13.12.2025 18:10     Заявить о нарушении