Поддержать команду Зеркала
Беларусы на войне
  1. Забывчивым беларусам пригрозили «административкой» — кто и за что на этот раз
  2. «Мы не придурошная Европа». Пропаганда бросилась защищать взорвавшую соцсети идею Лукашенко переселить в Беларусь 150 тысяч пакистанцев
  3. Дело пропавшей спикерки КС засекретили? «Зеркало» получило ответ из Национальной прокуратуры Польши
  4. Кочанова вспомнила нашумевший закон, которым населению отомстили за 2020 год, и озвучила, кто следующий в очереди на «урегулирование»
  5. «Я решил положить конец этим мегерам». Рассказываем, как убежденный антифеминист однажды убил 13 студенток и сотрудницу университета
  6. Путин заявил о готовности заморозить конфликт по линии фронта и отказаться от претензий на некоторые украинские территории — с какой целью
  7. Чиновники решили взяться за еще одну категорию работников, но после волны возмущения людей от некоторых новшеств отказались
  8. Лукашенко рассчитывал, что жесткий контроль цен станет «уникальной операцией». В закрытом документе ему объяснили, чем это аукнулось
  9. Беларус, которого включили в список «экстремистов», умер от инсульта в 44 года
  10. Сначала — супердоступ силовикам, а теперь — запуск посредника при заказах из зарубежных интернет-магазинов. У чиновников — новая идея
  11. БелЖД предложила Литве, Латвии и Польше возобновить прямое пассажирское сообщение
  12. Почему идея Лукашенко позвать пакистанцев взорвала соцсети, а власть так быстро перешла к угрозам и «покаянным» видео? Спросили социолога
  13. Если вы гадаете, бежать за дешевым долларом или подождать еще, чтобы его курс упал больше, то для вас есть прогноз эксперта
  14. Помните парня, бежавшего за водометом в 2020-м? Его искали силовики, но нашли журналисты «Зеркала» — поговорили с ним
  15. Лукашенко съездил в Шклов и нашел то, что будут «лепить по всей Беларуси»
  16. «Ты сто человек таких увидишь за день». Беларусы, которых вербовал КГБ, рассказали, как узнать «агента» и не сказать случайно лишнего
  17. Силовики начали задерживать беларусов за комментарии о пакистанцах и публиковать «покаянные» видео


/

Google удалил из своих принципов работы с искусственным интеллектом пункт, в котором компания обещала не участвовать в создании технологий, способных нанести вред людям, в том числе в военных целях. На это обратило внимание агентство Bloomberg.

Изображение носит иллюстративный характер. Фото: Pawel Czerwinski / unsplash.com
Изображение носит иллюстративный характер. Фото: Pawel Czerwinski / unsplash.com

Со страницы целиком исчез раздел под заголовком «Применение [ИИ], которым мы не будем заниматься». Судя по копиям страницы в веб-архиве, в конце января этот раздел еще присутствовал на ней. Он содержал четыре пункта:

  • технологии, которые в целом наносят или могут нанести вред (только если польза от них значительно не перевешивает риски);
  • оружие или другие технологии, предназначенные для причинения вреда человеку напрямую или косвенно;
  • технологии слежки, нарушающие международные нормы;
  • технологии, цели которых противоречат международным правовым принципам.

Страница в ее нынешнем виде вообще не содержит упоминаний об обязательствах отказаться от применения ИИ в опасных и неэтичных технологиях, включая оружейные.

В ответ на запрос журналистов прокомментировать произошедшие изменения представитель Google отправил запись в блоге компании, которая была опубликована 4 февраля. В ней говорится об итогах работы в 2024 году и ближайших планах корпорации относительно искусственного интеллекта.

Как рассказали в блоге старший вице-президент Google Джеймс Манийка и глава лаборатории искусственного интеллекта DeepMind Демис Хассабис, правительства и компании должны работать вместе над созданием искусственного интеллекта, который будет защищать людей, способствовать глобальному развитию и поддерживать нацбезопасность.

Одна из бывших руководителей исследовательской группы Google по этике искусственного интеллекта Маргарет Митчелл сказала Bloomberg, что подобное изменение принципов работы корпорации с ИИ будет иметь серьезные последствия: «Удаление этого пункта <…> означает, что Google теперь, вероятно, будет работать над внедрением технологий, которые смогут убивать людей».

Изменение политики Google в сфере разработки искусственного интеллекта совпадает с общей тенденцией среди крупных игроков на рынке, отметило Bloomberg. В частности, в январе Meta и Amazon расформировали часть своих программ по обеспечению разнообразия и инклюзивности.