Поддержать команду Зеркала
Беларусы на войне
  1. Помните экс-директора «Белтелекома», которого осудили по «делу Втюрина»? Узнали, где он работает после освобождения
  2. Готовится к визиту в Минск: спецпосланник Трампа может встретиться с Лукашенко в ближайшие дни — Reuters
  3. «Я была просто в шоке!» Чиновники попросили многодетную мать из Барановичей разобраться с печью в доме ее отца и отчитаться перед ними
  4. До прошлого года жил в нищете и был никому не нужен, но теперь обрел признание и миллионы долларов. Кто этот художник родом из Беларуси
  5. В Беларуси беременных направляют на три УЗИ за государственный счет. Это вряд ли повод гордиться, как делают по госТВ — объясняем
  6. ГУБОПиК пришел с обысками в офисы кол-центров, продававших БАДы, — задержано 56 человек по всей стране
  7. Клиенты мобильных операторов радовались, что «отбили» безлимитные тарифные планы. А теперь для них появилась еще одна новость
  8. Кажется, у российской армии появилось новое приоритетное направление в Донецкой области — что известно (+ карта)
  9. «Считаю, что заслужил право высказаться». Отставной подполковник беларусской милиции вернул медаль в МВД и пошел воевать за Украину
  10. Силовики потребовали от Польши выдать беларуса, который участвовал в протестах. Статью указали не «политическую» — вот что решил суд
  11. «Никогда не жалею о том, что сделала». Поговорили с легендой беларусского нацотбора на «Евровидение», спевшей «Дуй на меня, дуй»
  12. Помните помощника Лукашенко «от земли до неба», который выходил к протестующим в 2020-м? Он «всплыл» в весьма неожиданном месте


Первый глобальный саммит, посвященный безопасному использованию искусственного интеллекта, стартовал в Британии. В течение двух дней технологические гиганты, эксперты и политики будут обсуждать основы регулирования и безопасного использования технологий искусственного интеллекта, пишет Русская служба Би-би-си.

Илон Маск в 2022 году. Фото: U.S. Air Force photo by Trevor cokley / Википедия
Илон Маск. Фото: U.S. Air Force photo by Trevor cokley / Википедия

Первый саммит такого рода проходит в Блетчли-парке в графстве Бакингемшир, где в годы Второй мировой войны размещался центр дешифровки. Именно тут командой Алана Тьюринга была раскрыта тайна кода «Энигма», который использовали немецкие шифровальные машины.

По случайному совпадению именно в первый день работы саммита один из старейших словарей английского языка Collins признал AI — аббревиатура, обозначающая «искусственный интеллект», — словом 2023 года.

По сообщению Collins, употребление этого слова по сравнению с прошлым годом выросло в четыре раза.

«Мы знаем, что на ИИ в этом году был большой акцент в том смысле, что он развивался и быстро стал вездесущим, будучи встроенным в наши жизни в имейлы, стриминги и другие повседневные технологии, которые некогда казались футуристическими», — сказал директор издательства, выпускающего словарь.

В первый день работы саммита было подписано «первое в мире соглашение» о том, как управлять наиболее рискованными формами искусственного интеллекта.

Основное внимание в нем уделено так называемому «передовому ИИ» (frontier AI) — это, в понимании участников саммита, высокоразвитые формы этой технологии с пока неизвестными возможностями.

Соглашение подписали также США, ЕС и Китай.

В саммите также принял участие Илон Маск, владелец компаний Tesla, X и созданной минувшим летом x.Al — компании, занимающейся вопросами искусственного интеллекта. Накануне встречи он вновь выступил с предупреждением, что ИИ может привести к вымиранию человечества.

Правда, другие участники саммита высказались в более спокойном духе: по их мнению, следует воздержаться от спекуляций на тему маловероятных угроз в будущем, а вместо этого сосредоточить внимание на потенциальных рисках, которые искусственный интеллект несет уже сегодня, — например, угрозы некоторым профессиям или предвзятость в тех или иных вопросах, которую ИИ вырабатывает в результате своего обучения.

На конференции также прозвучало заранее записанное заявление британского короля Карла III, в котором он назвал развитие передового ИИ «не менее важным, чем открытие электричества».

Правительство Великобритании заявило, что в так называемой декларации Блетчли, подписанной участниками саммита, 28 стран согласились с тем, что необходимо срочно понять и коллективно управлять потенциальными рисками, связанными с ИИ.

Премьер-министр Риши Сунак назвал встречу «знаковым достижением, благодаря которому мировые лидеры в области ИИ пришли к соглашению о срочной необходимости понимания рисков ИИ, что поможет обеспечить долгосрочное будущее наших детей и внуков».

Другие страны также подчеркнули необходимость глобального подхода к управлению этой технологией.

Отношения между Китаем и Западом сегодня зачастую оставляют желать лучшего, но заместитель министра науки и технологий КНР У Чжаохуэй заявил на конференции, что Китай стремится к духу открытости в области ИИ.

«Мы призываем к глобальному сотрудничеству, чтобы поделиться знаниями и сделать технологии ИИ общедоступными, — сказал он делегатам. — Китай готов расширять диалог и общение по вопросам безопасности ИИ со всеми сторонами».

Министр торговли США Джина Раймондо заявила, что по итогам саммита в США будет создан собственный Институт безопасности ИИ.

Министр технологий Великобритании Мишель Донелан, председательствовавшая на открытии саммита, объявила, что следующий саммит пройдет через полгода в виртуальном режиме и его организатором станет Южная Корея. Лично делегаты встретятся через год во Франции.

Истребить человечество — спасти планету?

Илон Маск, ранее не раз предупреждавший об угрозе искусственного интеллекта, в минувший вторник выступил в подкасте комика Джо Рогана и заявил, что некоторые люди могут использовать ИИ для защиты планеты, уничтожив человечество.

«Если начать думать, что люди — это плохо, то естественным выводом будет то, что люди должны вымереть, — сказал он. — Если ИИ будет запрограммирован сторонниками вымирания, то его полезной функцией будет вымирание человечества… Они даже не подумают, что это плохо».

В марте этого года Маск наряду с другими ведущими фигурами в области разработки ИИ подписал открытое письмо, в котором предлагалось сделать паузу в развитии технологий искусственного интеллекта до тех пор, пока не будут разработаны и применены надежные протоколы безопасности.

«Мощные ИИ-системы следует разрабатывать только после того, как мы убедимся, что последствия их применения будут положительными, а связанные с ними риски — управляемыми», — говорилось в письме.

Правда, уже в апреле стало известно, что Маск зарегистрировал компанию X.AI Corp., которая должна была заниматься вопросами искусственного интеллекта с целью «познания реальности».

Многие эксперты считают опасения за судьбу человечества в связи с развитием ИИ преувеличенными.

Ник Клегг, бывший вице-премьер Великобритании, а ныне президент по глобальным вопросам компании Meta, также принимавший участие в саммите, сказал, что люди не должны позволять «спекулятивным, иногда несколько футуристическим прогнозам» вытеснять более насущные проблемы.

Как отмечает корреспондент Би-би-си по вопросам климатической дезинформации Марко Сильва, утверждения о том, что экологи хотят принять крайние меры для сокращения численности населения Земли, уже давно пользуются популярностью среди конспирологов.

Многие из них полагают, что климатические активисты являются частью некоего «культа смерти», стремящегося реализовать «программу депопуляции», осуществляемую с помощью радикальных мер, например принудительной стерилизации.

Разумеется, никаких доказательств этому нет, и вряд ли среди крупных климатологов и экологов найдется человек, готовый поддержать подобную политику борьбы с изменением климата.

Несмотря на то, что рост численности населения создает огромную нагрузку на ресурсы планеты, некоторые из самых густонаселенных стран мира демонстрируют одни из самых низких показателей выбросов парниковых газов на душу населения.

Многие наблюдатели считают, что наибольшую угрозу ИИ представляет собой автоматизация рабочих мест людей или формирование существующих предубеждений и предрассудков в новых, гораздо более мощных, онлайновых системах.