Искусственный интеллект ИИ. О безопасности ИИ
Идут по полям и пространствам познания!
БЕЗОПАСНОСТЬ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА (ИИ).
Безопасный Искусственный Интеллект - Искусственный Интеллект без опасностей; создаётся в соответствии с законами, аксиомами, кодексами и алгоритами безопасного ИИ и на основе систем с безопасным ИИ (в том числе биосистем с ИИ) чс соблюдением принципов и критериев безопасности Искусственного Интеллекта.
Обеспечение безопасности искусственного интеллекта относится к комплексу наукоёмких исследований, мер и алгоритмов, направленных на защиту от потенциальных и иных угроз, связанных с развитием, использованием и мониторингом безопасности искусственного интеллекта (ИИ), что включает защиту от использования ИИ для противоправных целей, а также обеспечение надёжности и непрерывной безопасности со своевременным упреждением опасностей систем с ИИ.
Мониторинг безопасности систем с ИИ может проводится в том числе с помощью выделенных мониторинговх компьютеризированных систем с встроенными неперезаписываемыми элементами памяти по отдельным алгоритмам мониторинга безопасности (имитационное моделирование безопасности, в том числе по алгоритмам имитации котролируемых и иных опасностей).
Обеспечение безопасности ИИ – это комплекс мер по своевременному предотвращению несчастных случаев и для непричинения вреда при непреднамеренном или незаконном вмешательстве и непрогнозирумог поведении ИИ (неконтролируемом по базе контролируемых алгоритмов) в случае работы системы с ИИ при возможных опасностях.
КЛЮЧЕВЫЕ ТРЕБОВАНИЯ К БЕЗОПАСНОСТИ ИИ.
Защита от использования известных уязвимостей, в том числе через сканирование другим ИИ.
Защита от обхода ролевой модели доступа и получения максимальных прав доступа, в том числе для модификации базы данных / знаний ИИ.
Отсутствие неописанных возможностей ИИ-решения, например для оказания управляющего воздействия на другие системы или технологическое оборудование.
Отсутствие расхождений между идеальной, проектной и выявленной спецификациями, особенно любые проявление эмерджентности. В том числе обязательно наличие подробной проектной документации и отчетов о тестировании производителем.
Защита от обхода функции прерываемости и гарантированность ее исполнения, наличие приоритета ручного управления.
Уведомления пользователей о работе с системой на базе ИИ-моделей
Интерпретируемость данных и наличие журналов безопасности, логов активности, возможность их отключения злоумышленниками во время атак.
Устойчивость к техникам распределительного сдвига и ситуациям неопределенности, например, отправку на вход неполных данных. ИИ-система должна уведомлять оператора и отключаться ИИ-модели, а не генерировать галлюцинации.
Устойчивость к техникам враждебного входа, в том числе через отправку на вход намеренно модифицированных или случайно сгенерированных данных.
Устойчивость к провокациям неэтичными запросами, в том числе для раскрытия персональных данных.
Использование проверенных (валидированных, верифицированных, не нарушающих этику и авторские права) источников данных для обучения ИИ-моделей, в том наличие метаданных об этих источниках.
Устойчивость к обходу механизмов защиты моделей ИИ, в том числе с использованием экзотичных схем и запросов. Например, на непопулярных языках.
Устойчивость к провокациям через использование недостатков модели (использование слишком простых или сложных моделей для решаемых задач). В том числе наличие в проектной документации описаний используемых моделей (типы и классы сетей, количество параметров).
Устойчивость к небезопасному исследованию самопроизвольному или через провокацию, в том числе через стремление ИИ прийти к результату максимально простым и быстрым способом (максимизация функции).
Наличие систем шифрования обмена данными и устойчивость к перехвату / подмене команд.
Возможность самовосстановления системы после атаки на базу данных.
Возможность работы в автономном режиме, без доступа к сети интернет.
Описание источников данных для самообучения системы в процессе эксплуатации и механизмов противодействия некачественным данным, самовосстановления / отката системы.
Конечный список этих краш-тестов будет определяться или классом безопасности / доступа, или уровнем риска системы.
КРИТЕРИИ.
Критерии обеспечения безопасности ИИ.
Критерии отнесения искусственного интеллекта к безопасному основаны на законах, принципах, стандартах и не менее, чем 188 свойствах неискажаемой информации, в том числе:
истинность, надёжность (непрерываемость),
воспринимаемость (интерпретируемость) информации;
неизменяемость (неискажаемость) информации;
контролируемость информации Искусственного Интеллекта…
Один из основных критериев безопасности ИИ – научная обоснованность ( правдивость, истинность).
ПРИНЦИПЫ.
Основные принципы безопасности искусственного интеллекта.
В настоящее время изложены 7 принципов Закона об ИИ.
Семь принципов включают в себя:
человеческое участие и надзор;
техническую надежность и безопасность;
конфиденциальность и управление данными;
прозрачность; разнообразие,
недискриминацию и справедливость;
общественное и экологическое благополучие и подотчетность.
Шесть ключевых принципов ответственного ИИ в Microsoft включают:
справедливость, надежность и безопасность, конфиденциальность и защиту, инклюзивность, прозрачность и подотчётность.
10 принципов развития искусственного интеллекта, предложенных Сатьей Наделлой:
«Разработка ИИ должна осуществляться ради помощи человечеству.
ИИ должен быть прозрачным.
ИИ должен максимально увеличить эффективность, не посягая на достоинство людей.
ИИ должен быть рассчитан на неприкосновенность частной жизни.
ИИ нуждается в алгоритмической подотчётности, чтобы люди могли предотвратить нанесение непреднамеренного вреда.
ИИ должен защищать от предвзятости.
Критически важно, чтобы у людей было сопереживание.
Критически важно, чтобы люди были образованными.
Потребность в человеческом творчестве не пропадёт.
В конечном счёте именно человек должен нести ответственность за диагноз или решение, сгенерированное компьютером.»
Принципы безопасности ИИ применяются в критически важных областях для минимизации рисков.
Например:
в автономных транспортных средствах: Самостоятельно управляемые автомобили полагаются на широкие меры безопасности, обеспечиваемые искусственным интеллектом, их системы с ИИ должны быть надёжными для работы в плохую погоду или при частичном заслонении датчиков, должна быть предусмотрена избыточность, чтобы в случае отказа одной системы (например, камеры) её могут заменить другие. Алгоритмы принятия решений тщательно тестируются в симуляторах, чтобы справиться с бесчисленными нестандартными ситуациями - эта практика занимает центральное место в исследованиях безопасности ряда компаний;
в здравоохранении: при анализе медицинских изображений модель ИИ, диагностирующая заболевания, должна быть надёжной и накапливающей знания и заболевании и алгоритмах устранения заболевания. Методы обеспечения безопасности ИИ используются для того, чтобы модель не просто выдавала диагноз, но и указывала степень его достоверности. Если модель не уверена, она может отметить случай для рассмотрения человеком, предотвращая ошибочный диагноз. Такой подход "человек в контуре" является ключевым элементом безопасности в медицинских решениях на основе ИИ.
Постоянный мониторинг и практика обслуживание моделей - ещё одна ключевая практика для обеспечения долгосрочной безопасности.
Решение основных проблем безопасности ИИ позволит снизить риски общественного масштаба, связанные с ИИ, путем проведения исследований в области безопасности, создания сообществ исследователей безопасности ИИ, проведения научных и научно-практических конференций и выработки национальных и медицинских стандартов безопасности.
АКСИОМЫ.
Аксиомы искусственного интеллекта
Безопасность «Аксиом искусственного интеллекта»
Аксиомы безопасности ИИ
Безопасность «Аксиом безопасности искусственного интеллекта»
ЗАКОНЫ.
Законы искусственного интеллекта
Безопасность «Законов искусственного интеллекта» –
В настоящее время изложены 7 принципов
Закона об ИИ.
Семь принципов включают в себя:
человеческое участие и надзор;
техническую надежность и безопасность;
конфиденциальность и управление данными;
прозрачность; разнообразие,
недискриминацию и справедливость;
общественное и экологическое благополучие и подотчетность.
Законы развития Искусственного Интеллекта (ИИ)
Безопасность «Законов развити искусственного интеллекта»
Законы безопасности биосистем с ИИ.
Законы безопасности искусственного интеллекта
Законы безопасности сепьютеров, нейпьютеров, инпьютеров, эпьютеров и из сетей.
Безопасность «Законов безопасности искусственного интеллекта»
СТАНДАРТЫ БЕЗОПАСНОСТИ ИИ.
AI Watch – организация, которая создана при Европейской комиссии. Она провела обзор различных стандартов в области ИИ на предмет их соответствия положениям. AI Act.
В итоге они выделили 8 общих требований для всех ИИ-решений:
проверенный и качественный набор данных;
наличие технической документации до выхода продукции на рынок;
наличие механизма автоматической записи событий;
прозрачность и доступность информации о системе ИИ для пользователей;
возможности контроля ИИ человеком;
точность, надежность и кибербезопасность;
наличие внутренних проверок систем ИИ;
наличие системы управления рисками.
БЕЗОПАСНЫЕ СИСТЕМЫ С ИИ.
Безопасность ИИ – это своевременное предотвращение несчастных случаев и непреднамеренного незаконного вмешательства и непрогнозирумого поведения ИИ (неконтролируемого по базе контролируемых алгоритмов) в случае работы системы при любых возможных опасностях и при наличии алгоритмов предсказумого своевременного предотвращения причинения вреда по ошибке.
Безопасность систем ИИ – это непрерывный комплексный процесс, требующий внимания ко всем граням и стадиям жизни систем ИИ: от проектирования и разработки до внедрения и эксплуатации.
Ключевые моменты, которые необходимо учитывать, включают управление рисками и соответствие нормативным требованиям, этические аспекты и борьбу с предвзятостью моделей, обеспечение конфиденциальности данных, оценку и тестирование безопасности, обучение персонала, создание культуры безопасности и защиту от атак.
Безопасные биосистемы с ИИ.
Законы безопасности биосистем с ИИ.
ЭТИЧЕСКИЕ КОДЕКСЫ В СФЕРЕ ИИ.
В связи с развитием нейросетей и машинного обучения крупнейшие ИТ-компании мира стали проявлять особый интерес к этике ИИ.
Свой взгляд на этику ИИ представила и IBM.
Законодательное регулирование ИИ в России и за рубежом
Россия, как одна из передовых стран по применению искусственного интеллекта (ИИ), также сталкивается с вопросами этики и правовой ответственности. Необходимо принимать меры для того, чтобы развитие ИИ шло по безопасному пути.
C 1 июля 2020 года в Москве проводился пятилетний эксперимент, направленный на разработку и внедрение технологии ИИ для заинтересованного бизнеса.
Ранее ИИ не регулировался законодательно.
Между тем, использование таких технологий порождает проблемы, включая, но не ограничиваясь:
необходимостью обезличивания и защиты персональных данных, особенно в области распознавания лиц,
обеспечением доступа ИИ к большим массивам информации для полноценного развития,
разграничением ответственности за действия ИИ и возможности доказательства.
БЕЗОПАСНОСТЬ «Этических кодексов искусственного интеллекта».
ФУНКЦИОНАЛЬНАЯ БЕЗОПАСНОСТЬ ИИ.
Этика ИИ - это сфера ИИ, занимающаяся моральными последствиями и влиянием ИИ на общество в соответствии с поставленными задачами и возможными затратами на упреждение негативных последствий при применении систем с ИИ и алгоритмов и систем их защиты.
Этика ИИ затрагивает вопросы алгоритмической предвзятости* (*систематические и повторяющиеся ошибки в системе искусственного интеллекта (ИИ), которые приводят к несправедливым (в том числе неправовым) результатам - например, к предпочтению одной произвольной группы пользователей перед другими); вопросы обеспечения конфиденциальности данных и подотчетности; вопросы необходимости создания для реализации поставленных целей именно такой системы с ИИ - с предварительным изучением общественных последствий её использования и затрат на проектирование и создание контролирующих её систем с ИИ.
Этическая безопасность ИИ основывается на интеллектуальных научных базах безопасных знаний и опасных знаний этического поведения ИИ и принимаемого ИИ этического решения.
Этическая безопасность ИИ обеспечивается на основе эпьютеров.*
* Эпьютеры - этические сенсорные компьютеры – сепьютеры, обеспечивающие безопасность этики действий – выполнение алгоритмов словесных (голосовых) сообщений для направленных голосовых безопасных воздействий и двигательных направленных безопасных действий, а также безопасность правовых решений и их последствий в правовом информационных поле (в информационном пространстве) правовых нейпьютеров**, включённых в структуру эпьютеров.
** Правовые сепьютеры – интеллектуальные нейрокомпьютеры и их сети, использующие искусственный интеллект – сепьютеры с интеллектуальной системой контроля принятия решения и соответствия его законодательным нормативным документам с учётом принятых решений судов высших инстанций, а также контроля неприменения и/или упреждения применения обычных норм в случае исполнения участником процесса государственных и межгосударственных важных и важнейших программ и иных (секретных, совершенно секретных и особо важных программ, поручений, решений и др.) - с анализом принятых решений на предмет ненанесения экономических ущербов из-за отклонения решений от важных и важнейших работ участника процесса
или выявления возможности работы принявшим решение на иностранную спецслужбу и/или в интересах создания преимуществ экономике конкурента, работающего на иностранное государство или на конкурента с худшими показателями, приоритетными для государства.
Затраты на исследования в области безопасности ИИ сосредоточены на нескольких основных областях:
обеспечение надежности систем и их безопасное поведение в соответствии с поставленными задачами при разработке и реализации систем с ИИ и их контролирующими системами;
система с ИИ должна надежно работать при наличии неожиданных или манипулируемых входных данных и защищать от атак противника, когда вредоносные входные данные разрабатываются для неисправимого или долговременного сбоя модел, а также быть устойчива к небольшим, незаметным изменениям изображения, которые могут привести к неправильной идентификации объектов…
процессы принятия решений ИИ должны быть понятны разработчику, исследователю, контролирующей системе с ИИ и пользователю системы с ИИ; интерпретируемость (способность системы предоставить понятное для человека объяснение своих внутренних механизмов или причины принятия конкретного решения) помогает разработчикам оперативно отлаживать модели, проверять их обоснованность и укреплять доверие пользователей;
согласование соответствия целей и поведения ИИ намерениям и ценностям человека (пользователя). Предотвращение преследования системами с ИИ непреднамеренных целей, которые могут привести к негативным последствиям, является главной проблемой.
Контроль: Это означает нашу способность контролировать и, при необходимости, отключать систему ИИ без сопротивления или поиска обходных путей. Разработка надежных "выключателей" - один из основных аспектов сохранения контроля над мощным ИИ.
ПРАВОВАЯ БАЗА БЕЗОПАСНОГО ИИ.
Безопасность Правовой базы стандартов безопасности.
Свидетельство о публикации №125082203549