Например, это чат-боты для комфортного общения или успокоения, психологические консультации для родителей. Злоумышленники с помощью таких технологий могут собирать информацию об интересах и потребностях людей, выявлять слабые места и, используя эти сведения, влиять на их выбор, подчинять своим интересам.
Рыжова считает, что необходимо:
ввести регулирование сценариев применения ИИ на уровне федерального закона;
установить стандарты безопасности искусственного интеллекта;
рассмотреть вопрос введения ответственности за нарушение требований и причинение вреда с использованием технологий ИИ.
Главный научный сотрудник сектора информационного права и международной информационной безопасности ИГП РАН Виктор Наумов в числе рисков, связанных с развитием ИИ, назвал отсутствие идентификации и маркировки этих технологий, злоупотребление доверием пользователей, которые не знают о негативных последствиях использования технологий, радикальную концентрацию власти в руках производителей ИИ. Он отметил еще одну угрозу: спустя несколько десятилетий, вероятно, произойдет деградация многих свойств человека. Например, его творческих и коммуникационных способностей в условиях построения отношений с безальтернативным использованием ИИ.
«Современные ИИ-модели, например GPT, стремительно развиваются. Необходимо понимать, как они устроены, какой и чей код в них работает и на базе какого массива информации он работает. У используемой в GPT информации есть четыре важных критерия: полнота, достоверность, актуальность и легальность. Манипулируя этими четырьмя параметрами, разработчики кода могут управлять восприятием, объемом знаний и в итоге самим человеком», – обратил внимание глава Роскомнадзора Андрей Липов.
Он добавил, что параллельно есть риск потери навыков критического мышления, самостоятельного поиска и анализа информации и получения знаний, в первую очередь молодежью. Есть только один путь – создавать собственные технологии и сервисы в сфере ИИ.