Календарь

Август 2024

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

   |  →

13:51, 03.11.2023

Ведущие эксперты предложили объединить мировые ресурсы, опыт и знания в деле безопасности ИИ

Объединить мировые ресурсы, опыт и знания в деле безопасности искусственного интеллекта предложили мировому сообществу ведущие эксперты в области ИИ. Британский прогнозист и студент магистратуры по математике в Бергенском университете Толга Билге возглавил инициативу, благодаря которой появилось открытое письмо с призывом заключить международный договор о безопасности искусственного интеллекта.

В письме, опубликованном в преддверии проведения первого Международного саммита по безопасности ИИ (состоялся 1 и 2 ноября 2023 года в Лондоне), говорится о необходимости разработать и ратифицировать договор о безопасности ИИ, который должен получить широкое одобрение во всем международном сообществе. Заняться разработкой может специальная рабочая группа, которую эксперты предложили создать на Саммите по безопасности ИИ.

Толга Бильге заявил: «Обеспечение того, чтобы ИИ был безопасным и приносил пользу всем, является не только технической, но и геополитической проблемой. Нам нужно, чтобы великие державы мира, включая США и Китай, отложили в сторону свои разногласия ради человечества и конструктивно работали над созданием надежного набора международных правил, направленных на сосредоточение внимания на этих проблемах».

Эксперты, комментируя инициативу, отметили, что ИИ может принести катастрофические риски, которые необходимо выявить и подготовиться к ним, важно проводить исследования для понимания и смягчения проблем безопасности и этики, связанных с ИИ, нужно достичь соглашения между странами о контроле и управлении этими рисками, так как проблемы ИИ затрагивают интересы каждого жителя планеты.

Письмо подписали многие специалисты, включая известного когнитивиста Гари Маркуса, ведущего эксперта в области безопасности и управления ИИ в Китае Йи Цзэна, обладателя премии Тьюринга и пионера ИИ Йошуа Бенджио, члена правления ведущей лаборатории ИИ Anthropic Люка Мюльхаузера и старшего научного сотрудника Google DeepMind и соучредителя Института будущего жизни (FLI) Викторию Краковна.

Основные цели договора – обеспечение доступа к благам ИИ для всех людей и сокращение путем предотвращения бесконтрольного масштабирования возможностей искусственного интеллекта катастрофических рисков, которые системы искусственного интеллекта представляют для человечества.

Ключевые слова: Наука и технологии
Источник: Известия-Саратов
просмотров: 444

Аккредитация

Компания или частное лицо может получить аккредитацию для публикации новостей на нашем портале.