89.76 $ 97.91 €

Вернуться на главную

Технологии

Международное сообщество должно заключить договор о безопасности ИИ – мнение ведущих экспертов

Заключить договор о безопасности ИИ призвали международное сообщество ведущие эксперты в области искусственного интеллекта. Специалисты опубликовали открытое письмо, в котором говорится о необходимости разработки и ратификации международного договора о безопасности ИИ и создании для этого рабочей группы на Саммите по безопасности ИИ. Первый Международный саммит по безопасности ИИ состоялся в Лондоне 1 и 2 ноября 2023 года.

Открытое письмо представлено буквально накануне события. Среди тех, кто его подписал, было немало известных личностей – научные эксперты, лидеры бизнеса и государственного управления. Кто-то из них входит в Консультативный орган высокого уровня ООН по ИИ, а некоторые в числе избранных экспертов приглашены на Саммит в Великобритании:  ведущий эксперт в области безопасности и управления ИИ в Китае Йи Цзэн, старший научный сотрудник Google DeepMind и соучредитель Института будущего жизни (FLI) Виктория Краковна, обладатель премии Тьюринга и пионер ИИ Йошуа Бенджио, известный когнитивист Гари Маркус, а также член правления ведущей лаборатории ИИ Anthropic Люк Мюльхаузер.

«Мы не можем знать, каким образом и как ИИ может принести нам катастрофические риски, просто потому что без очень серьезного и тщательного проектирования модели и архитектуры могут развиваться непредсказуемым образом. И именно поэтому нам как человеческому сообществу необходимо сотрудничать и выяснять потенциальные пути и различные угрозы и по возможности готовиться. Для договора по искусственному интеллекту нам нужен глобальный консенсус и глобальное содействие, начиная с крупнейших держав в области искусственного интеллекта, ведущих исследователей искусственного интеллекта и компаний, чтобы показать и привести мир к лучшему будущему, делясь тем, как разрабатывать и внедрять системы ИИ, ставящие безопасность во главу угла, не оставляя никого позади», – так прокомментировал инициативу ученый из Китая Йи Цзэн.

Основные цели договора – обеспечение доступа к благам ИИ для всех людей и снижение катастрофических рисков, которые представляют для человечества системы ИИ. Для этого следует исключить бесконтрольное масштабирование возможностей ИИ, считают специалисты, создав надежный набор международных правил.

Похожие новости

Компании

Девелоперская компания «Изба» начала продажи элитного проекта в Московской области

Девелопер «Изба» сообщил о начале продаж элитного проекта в Московской области - клубной резиденции «Залесье». Площадь застройки – 7 га,...

Москва

Наталья Сергунина рассказала про московские гостиницы. За праздники они показали рекордные цифры

Во время ноябрьских праздников гостиницы Москвы привлекли 85% туристов, что на 12% больше, чем год назад, сообщает пресс-служба столичного комитета...

Технологии

Стало известно, можно ли использовать чат корпоративного сервера «Р7-Офис» на смартфонах

Оказывается, такая возможность действительно есть. Владельцы устройств на Android и iOS могут использовать мессенджер «Команда», входящий в состав «Р7-Офис. Корпоративный...

Общество

В преддверии Дня Неизвестного Солдата можно будет проверить свои знания по истории Великой Отечественной войны  

День Неизвестного Солдата был установлен в России в 2014 году в память о российских и советских воинах, погибших в боевых...