Короткая ссылка
Эксперт в области искусственного интеллекта (ИИ) и аналитик данных Александр Малахов рассказал, какими могут быть последствия бесконтрольного развития ИИ.
«Опасность нейросетей, которые сейчас законодательно никто не контролирует, можно рассмотреть на примере всем известного ChatGPT. Основные риски, которые он в себе несёт, — это бесконтрольность распространяемой информации», — заявил он в беседе с «Газетой.Ru».
По его словам, важно понимать, что ИИ — это не база данных, поскольку оттуда нельзя удалить какие-то знания, а также нельзя понять, на основе каких изначальных знаний нейросеть основывает свои суждения, и это является основной опасностью.
Как отметил Малахов, существуют несовершенства контроля над информацией в ИИ.
Эксперт также прокомментировал сообщение о том, что в Генассамблее ООН приняли резолюцию по искусственному интеллекту.
«Это первый документ такого высокого уровня. Он является только началом к созданию подобных и более детальных документов на локальном уровне. Резолюция призывает страны разработать свод правил и законов для разработок в сфере ИИ, чтобы соблюдались права человека, использование было безопасным и безрисковым, сохранялась приватность данных и так далее», — сказал он.
Ранее заведующий лабораторией искусственного интеллекта, нейротехнологий и бизнес-аналитики РЭУ имени Г.В. Плеханова Тимур Садыков прокомментировал возможные изменения на рынке труда после внедрения искусственного интеллекта.
Ошибка в тексте? Выделите её и нажмите «Ctrl + Enter»
Подписывайтесь на наш канал в Дзен