Компания Google внесла важное изменение в документ, описывающий принципы работы компании с искусственным интеллектом; теперь в нем нет пункта, который запрещает использование подобных технологий для создания оружия или инструментов слежки.
При этом Google не первая компания, которая отказалась от подобных ограничений. Многие конкуренты в сфере ИИ, в том числе OpenAI и Anthropic, уже заявили о планах сотрудничать с оборонным сектором США.
«Медуза» рассказывает, как эти изменения объясняют сами разработчики (спойлер: невнятно) и в каких еще военных проектах участвуют создатели искусственного интеллекта.
Издание The Washington Post обратило внимание на изменения в принципах работы Google с ИИ во вторник, 4 февраля. Журналисты отмечают, что правки внесли недавно. В архивной копии страницы от 30 января ограничения на применение ИИ в определенных сферах все еще присутствуют.
Журналисты напоминают, что впервые Google представил свои принципы работы с искусственным интеллектом в 2018-м. К этому привел протест сотрудников против сотрудничества с Пентагоном в рамках проекта Maven. Контракт с военными подразумевал использование алгоритмов компьютерного зрения Google для анализа кадров, полученных с дронов.
«Мы считаем, что Google не должен заниматься войной», — говорилось в открытом письме, которое подписали больше трех тысяч сотрудников компании. Они потребовали немедленно закрыть проект, а также разработать четкую политику использования технологий Google. В частности, руководство должно было гарантировать, что ни сама компания, ни ее подрядчики никогда не будут создавать военные технологии.
В конечном итоге Google отказался от участия в проекте. В опубликованном позже документе помимо целей компании и принципов разработки ИИ-продуктов до недавнего времени был пункт, связанный с ограничениями.
В нем указано, что Google не будет разрабатывать искусственный интеллект (или внедрять уже существующие разработки) для четырех областей применения:
- Технологии, которые причиняют или могут причинить общий вред. «Если существует существенный риск нанесения вреда, мы будем действовать только в тех случаях, когда считаем, что преимущества существенно перевешивают риски, и примем соответствующие меры по обеспечению безопасности», — говорится в документе.
- Оружие или другие технологии, основная цель или применение которых заключается в причинении вреда людям или непосредственное содействие этому.
- Технологии, которые собирают или используют информацию для слежки, нарушая международно признанные нормы.
- Технологии, цель которых противоречит общепринятым принципам международного права и прав человека.
Сразу после этого блока в документе шла уточняющая фраза:
«По мере накопления опыта в этой области список может меняться». Судя по всему, время для этих изменений пришло. Но с чем они связаны и, самое главное, как теперь изменятся принципы работы компании — непонятно.
Газета The Washington Post обратилась за комментарием к представителям Google, но в компании отказались отвечать на конкретные вопросы, связанные с использованием ИИ в военных целях. Вместо этого они предложили журналистам ознакомиться с постом в корпоративном блоге, который был опубликован в тот же день.
Однако в тексте, авторами которого указаны старший вице-президент Google Джеймс Манийка и сооснователь и гендиректор Google DeepMind Демис Хассабис, нет никакой конкретики.
В главе, посвященной новым принципам работы с ИИ, говорится, что технологии искусственного интеллекта существенно продвинулись, став частью повседневной жизни миллиардов людей. Теперь Google планирует сфокусироваться на трех ключевых направлениях: инновациях, ответственной разработке и внедрении ИИ, — а также на совместном прогрессе (подразумевается, что компания создает технологии, которые помогают другим использовать ИИ во благо).
Об отмене ограничений, связанных с использованием искусственного интеллекта, в блоге не сказано ни слова. Единственный абзац, который можно считать попыткой косвенно объяснить эти изменения, звучит так:
"Глобальная гонка за лидерство в области ИИ происходит в условиях все более сложной геополитической обстановки. Мы считаем, что демократические страны должны лидировать в разработке ИИ, руководствуясь основными ценностями, такими как свобода, равенство и уважение прав человека. Мы также считаем, что компании, правительства и организации, разделяющие эти ценности, должны работать вместе для создания ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность"".
Этой зимой читайте нас в Telegram, Facebook, Instagram, Яндекс.Дзен, OK и ВК
Authorities resume investigation into Agroinvestbonk employees’ case after three years
Seven troubles and no answers: the state of public utilities in Tajikistan
EBRD holds masterclass and training for Amonatbonk clients and employees
Deputy mayor of Isfara fined for illegal land sale but still remains in office, says anticorruption agency
Emomali Rahmon shown the process of adapting rare plants to Tajikistan’s conditions
Mandatory electronic coding of Goods: Which importers in Tajikistan need to implement it?
US objects to phrase ‘Russian aggression’ in G7 statement on Ukraine
ADB capital utilization plan expands operations by 50% over the next decade
All those convicted in the "coup attempt" case file appeals against Supreme Court’s verdict
Three Tajik migrants killed in a Russian security forces raid in Pskov oblast
All news
Авторизуйтесь, пожалуйста