Google обещает не использовать искусственный интеллект (ИИ) для создания оружия и незаконной слежки. Этот и другие принципы работы с ИИ опубликовал исполнительный директор Google Сундар Пичай в блоге компании, пишет Cossa:
- Польза для общества. Достижения должны благоприятно влиять на все сферы жизни, включая безопасность, энергетику, транспорт, производство и развлечения.
- Борьба с предвзятостью. Компания намерена предотвратить негативное влияние на людей в вопросах расы, этнической принадлежности, пола, национальности, уровня дохода, сексуальной ориентации, политических и религиозных убеждений.
- Безопасность. Google работает над тем, чтобы обезопасить людей от непредвиденных последствий развития технологии.
- Подконтрольность людям. Все разработки будут контролироваться сотрудниками компании.
- Защита конфиденциальности. Политика конфиденциальности Google будет применяться и в сфере ИИ-разработок.
- Высокие научные стандарты. Компания будет работать в рамках научных и мультидисциплинарных подходов.
- Доступность. Технология должна быть доступной для использования в рамках, очерченных этими принципами.
Новые принципы стали необходимостью после недавнего скандала с участием Google. Стало известно, что компания подписала контракт с Министерством обороны США об использовании ИИ в военной сфере. Больше 3000 сотрудников Google подписали петицию, в которой призывали не использовать ИИ для разработки оружия. В результате компания отказалась от продления контракта. Новые принципы работы с ИИ не допустят подобных проектов.
При этом Google продолжит работать с правительством США в других областях. В разработку облачных технологий компания вкладывает значительные средства, а министерство обороны тратит на них миллиарды долларов.
«Совместные действия важны, мы будем активно искать дополнительные возможности для увеличения работы этих организаций и обеспечивать безопасность участников службы и гражданских лиц», — пишет Пичай.
В прошлом году британские ученые предложили альтернативу трем законам робототехники. Исследователи из университета Хартфордшира во главе с Кристофом Сэлджем считают, что роботы должны учитывать контекст происходящего и иметь большую свободу действий.