Искусственный интеллект научили выявлять ложь
Для искусственного интеллекта (ИИ) создан новый метод обучения, который поможет ему лучше учитывать тот факт, что люди далеко не всегда говорят правду, предоставляя личную информацию. Разработка может оказаться полезной в тех случаях, когда есть экономический стимул для лжи, — к примеру, при подаче ипотечных заявок или попытках снизить страховые взносы. Подробности о том, как ИИ научился распознавать ложь и какие последствия могут быть у этого достижения, читайте в материале «Известий».
Мотив для обмана
Сегодня искусственный интеллект используется в самых разных сферах, где необходима поддержка принятия решений. Как правило, программы на его основе используют для прогнозирования математические алгоритмы, основанные только на статистике. Однако возникает сложность: такой подход создает экономические стимулы для людей лгать — к примеру, при подаче заявок на ипотеку или попытках снизить страховые взносы.
Для того чтобы решить эту проблему, исследователи из Университета штата Северная Каролина (США) разработали новый инструмент для обучения ИИ. Он помогает программному обеспечению (ПО) на базе искусственного интеллекта лучше учитывать тот фактор, что люди не всегда говорят правду, предоставляя личную информацию.
Моделирование, подтверждающее концепцию, показало, что модифицированный ИИ действительно стал лучше обнаруживать ложную информацию от пользователей. В настоящее время исследователи намерены сдать новые параметры обучения ИИ общедоступными, чтобы разработчики могли экспериментировать с ними.
«Это эффективно снижает стимул пользователя лгать при отправке информации, — отметил соавтор исследования Мехмет Канер. — Однако маленькая ложь всё равно может остаться незамеченной. Нам нужно проделать дополнительную работу, чтобы понять, где находится порог между маленькой и большой ложью. В какой-то момент, если мы сделаем ИИ достаточно умным, мы сможем полностью устранить эти стимулы».
Механизмы обучения
Работа алгоритмов наподобие того, что разработали американские ученые, основывается на обучении нейронных сетей на исторических данных, говорит в беседе с «Известиями» ведущий эксперт по сетевым угрозам и web-разработчик компании «Код безопасности» Константин Горбунов. Он отмечает, что специалисты, по всей видимости, имели доступ к реальным данным, когда люди лгали в ситуациях, где у них был экономический интерес, — к примеру, завышали свои доходы при подаче заявки на кредит.
— Имея набор из нескольких подобных кейсов, исследователи могут составить портрет «лгуна», а затем научить ИИ распознавать идентичные ситуации, — рассказывает Константин Горбунов. — В техническом плане для составления подобного портрета можно использовать различные методы машинного обучения, такие как анализ тональности речи, распознавание паттернов поведения и обработка естественного языка.
Старший исследователь данных в «Лаборатории Касперского» Дмитрий Аникин дополняет, что исследователи представили алгоритм машинного обучения, который натренирован предсказывать, имеет ли пользователь мотивацию лгать по фиксированному набору факторов. По сути, это хитрая математическая формула, которая дает вероятностную оценку лжи по фиксированным параметрам.
Как бы то ни было, новая разработка способна найти применение в банковской и страховой отраслях, однако может пригодиться и в других областях. Так, по словам Константина Горбунова, модернизированный ИИ может проверять заявки на получение различный льгот и пособий в социальной сфере, а также стать помощником в рекрутинге — например, для проверки достоверности опыта и навыков в резюме. Кроме того, новинка может быть актуальна при оценке контрагентов для ведения бизнеса.
— Крупным дистрибуторским компаниям при продаже товаров очень важно оценить, какие условия оплаты уместно предложить контрагентам, — поясняет ИИ-эксперт и аналитик данных Александр Малахов. — Такие ситуации также попадают в категорию моделирования рисков, которые способна снизить новая модель ИИ.
Правоохранительный аспект
Тот факт, что ИИ учится выявлять обман, поднимает вопрос, сможет ли он однажды (частично или полностью) заменить детектор лжи. Этот прибор определяет, лжет ли человек, по его психологической реакции на вопросы. По словам Александра Малахова, это происходит так: эксперт на полиграфе устанавливает базовую линию поведения и реакцию человека на вопросы, где заведомо известна реакция и легко установить, говорит ли он правду (например, сколько будет 2+2).
— Затем эксперт начинает задавать уже интересующие его вопросы и при помощи сравнения с базовой линией старается определить, лжет ли человек, — говорит собеседник «Известий». — Похожий процесс происходит и при обучении искусственного интеллекта.
Как поясняет Александр Малахов, сначала собирается обучающая выборка, а затем проводится «предсказание» ответов на тестовой части. В результате сегодня ИИ может выступать в роли дополнительного инструмента для повышения точности детектора лжи за счет большего количества информации, а также помощника в унификации рекомендаций для экспертов по полиграфу. Однако, по словам эксперта, заменить его полностью не получится, да и выводы должен делать все-таки человек, а не машина.
В свою очередь, Константин Горбунов отмечает, что модернизированный искусственный интеллект пока не заменит ни человеческий анализ, ни детекторы лжи в силу своей новизны, а значит, высоки вероятности ошибки. Впрочем, ИИ может найти применение при комбинированном использовании всех технических возможностей обнаружения лжи, отмечает эксперт.
— Распознавание лжи искусственным интеллектом всё еще находится на ранней стадии и требует дальнейшего развития и исследования, — подчеркивает директор направления Data Fusion Лиги цифровой экономики Александр Кобозев.
Обратная сторона
Несмотря на то что ИИ, распознающий ложь, открывает довольно широкие возможности в самых разных сферах, специалисты, опрошенные «Известиями», видят в нем и определенные риски. Так, Александр Малахов обращает внимание, что пользователи всё дальше отдаляются от человеческого общения и уникальные ситуации, требующие детального внимания от сотрудников компаний, будут чаще заканчиваться негативным исходом для получателей услуг.
— Людям не очень нравится, когда с ними говорит ИИ в службе поддержки и когда важные события в их жизни (например, получение ипотеки) определяются искусственным интеллектом, — говорит эксперт.
Кроме того, Константин Горбунов обращает внимание, что распознавание лжи при помощи искусственного интеллекта — это новая технология, которая не проходила проверку «боевой» эксплуатацией. Поэтому ИИ на данном этапе способен допускать ошибки при распознавании лжи, что, в свою очередь, может привести к неправильным выводам и потенциальным негативным последствиям. В частности, подобные ошибки могут повлиять на репутацию человека или вынудить ответственных лиц принять неправильные решения из-за недостоверной информации от нейросети.
— Если это будет происходить слишком часто, то начнется выдача очень рискованных кредитов (а банки будут думать, что они с низким риском), — рассказывает Александр Малахов. — Когда их наберется огромное количество, это может привести к очередному кризису, подобному тому, с которым мы столкнулись в 2008 году.
По мнению Александра Кобозева, из-за всех этих рисков в ближайшее время банки и финансовые организации будут сочетать сразу несколько видов проверок — как традиционные, так и с применением искусственного интеллекта. Дмитрий Аникин заключает, что модифицированный ИИ может выступать дополнительным инструментом принятия решений о тех или иных действиях, но говорить о полноценном решении проблемы распознавания лжи с помощью алгоритмов машинного обучения пока не представляется возможным.
Дмитрий Булгаков
Фото: pixabay
По материалам: “Известия”