Безопасность ИИ? Заявление Блетчли-Парка имеет решающее значение

Подробно о важной инициативе, санкционированной основными странами, выступающими за глобальный прогресс в области искусственного интеллекта.

Безопасность искусственного интеллекта: мировые лидеры соберутся на саммите по безопасности искусственного интеллекта 2023 года в Блетчли-парке в Великобритании
Мировые лидеры собрались на Саммите по безопасности искусственного интеллекта 2023 года в Блетчли-парке в Великобритании (Фото: Леон Нил/Reuters)

1 и 2 ноября прошлого года, во время Саммит по безопасности ИИ, состоявшемся в Великобритании в Блетчли-ПаркВ графстве Бакингемшир 28 стран подписали декларацию о намерениях относительно развития искусственного интеллекта в безопасных условиях.

ИИ: война, которая вот-вот разразится, будет не такой, как мы ожидаем
SwissGPT: швейцарский искусственный интеллект, который произвел революцию в корпоративной безопасности
Фотогалерея, будущее цифровой трансформации в Лихтенштейне

Место с высокой символической ценностью, к лучшему или к худшему…

Место проведения саммита, Блетчли-Парк, был центром расшифровки во время Второй мировой войны, где Алан Тьюринг и его команда работали над созданием «Кристофер», вычислительная машина, которой удалось подорвать код Enigma, немецкое устройство, используемое для шифрования секретных военных сообщений, которое до тех пор считалось математически неопровержимым.

Место с особенно высокой символической ценностью, так как подсчитано, что благодаря английскому учёному война продлилась на два года меньше, спасая по меньшей мере 14 миллионов жизней.

К сожалению, это же место также символизирует фундаментальное безразличие и неблагодарность многих правительств по отношению к своим спасителям, учитывая, что Алан Тьюринг покончил жизнь самоубийством в 1954 году после года «химической кастрации», наложенной на него за его гомосексуализм, с гротескным финалом королевской «королевской» жизни. посмертное помилование». в 2013 году, как будто именно он должен был за что-то загладить свою вину.

Все это также заставляет нас задуматься о нынешнем подходе высших властей к проблемам, возникшим в результате недавнего «взрыва» технологий, связанных с искусственным интеллектом.

Швейцария и США объединились в вопросах кибербезопасности и цифровых технологий
Вода, трава и человечество: когнитивные пределы искусственного интеллекта
Искусственный интеллект также для разработки новых лекарств

Мишель Донелан посещает Блетчли-парк
Мишель Донелан, государственный секретарь по науке, инновациям и технологиям британского правительства, посещает Блетчли-Парк во время саммита по безопасности искусственного интеллекта

Но давайте посмотрим, что содержится в декларации о намерениях

После итогового анализа возможностей улучшения, предлагаемых ИИ в различных секторах человеческой деятельности, и признания того, что связанные с ним технологии в настоящее время широко распространены, возникла необходимость их безопасного развития и постоянного сохранения потребностей нашего вида во главу угла. центр.

Затем перечисляется ряд возможных рисков, некоторые из которых уже были проверены на местах, связанных с использованием систем искусственного интеллекта, и, в частности: риски, присущие правам человека (на работу, на уход, на правосудие); риски, присущие защите конфиденциальности; риски, связанные с правильной информацией (чрезвычайно достоверный вводящий в заблуждение контент); риски, связанные с технологическими «особенностями», связанными с ИИ (новые прорывные технологии в чувствительных контекстах, таких как биотехнологии и информационные технологии).

В Швейцарии Федеральный политехнический институт прозрачного и надежного искусственного интеллекта
Искусственный интеллект — это (также) революция в редактировании фотографий.
Инновации и журналистика: часто трудное сосуществование

Пример дипфейка Тома Круза
Пример «дипфейка» или использования методов искусственного интеллекта, чтобы человек выглядел похожим на настоящего актера Тома Круза.

Решение проблемы за пределами государственных границ

Поскольку многие из этих рисков по своей природе носят международный характер, рекомендуется максимальное сотрудничество между государствами для устранения их по мере их возникновения, а также активное участие всех участников, начиная с крупнейших и наиболее важных компаний, которые, следовательно, способны «обучить» наиболее мощных ИИ в непрерывном, открытом и прозрачном сравнении.

Таким образом, на глобальном уровне будет создана сеть сотрудничества с целью выявления рисков, связанных с искусственным интеллектом, посредством глобального и общего научного подхода, чтобы лучше понять его влияние на общество и, следовательно, выработать общую политику для реагирования на соответствующие изменения.

Майкл фон Лихтенштейн о геополитике и искусственном интеллекте
Когда старость становится разделительной линией между хорошими и плохими технологиями
Лейтмотив «Больших данных» «Дней швейцарской статистики 2023»

Риски нисходящего подхода в управлении темой

Некоторые отраслевые эксперты отмечают, что, помимо добрых намерений и заявлений о желании продолжить открытую дискуссию со всеми игроками, такой подход «сверху вниз» рискует «связать руки» только крупным компаниям отрасли, оставив вместо этого более мелкие и, следовательно, трудноконтролируемые организации, доступные всем.

Это реалии, которые будут распространяться все точнее и точнее благодаря технологиям, в настоящее время разрабатываемым такими компаниями, как Google и OpenAI, которые позволят обеспечить большую персонализацию систем искусственного интеллекта благодаря оптимизации необходимых ресурсов, возможно, действующих на грани законности. .

Короче говоря, как гласит древнее китайское проклятие, впереди интересные времена.

Этот постоянный прыжок веры в кино Кристофера Нолана
Дорожная карта по продвижению Лихтенштейна как цифрового центра
Во Фрауэнфельде искусственный интеллект управляет новым заводом по сортировке ПЭТ.

Что на самом деле произошло на саммите по безопасности искусственного интеллекта 2023 года в Блетчли-парке

Пленарное заседание открытия Саммита по безопасности искусственного интеллекта 2023 года в Блетчли-парке

Заключительное пленарное заседание Саммита по безопасности искусственного интеллекта 2023 года в Блетчли-парке

Послание короля Великобритании Карла III общественности и организаторам AI Safety Summit 2023

AI Safety: В сцене из биографического фильма
В сцене из биографического фильма «Игра в имитацию» актер Бенедикт Камбербэтч играет Алана Тьюринга вместе с «Кристофером», изобретенной им вычислительной машиной, которая помогла победить нацистов.