Alphabet, материнская компания ИТ-гиганта Google, усилила контроль над научными работами своих сотрудников, посвященными искусственному интеллекту, сообщает Reuters со ссылкой на внутреннюю документацию компании.
Как минимум в трех случаях Google просила своих ученых удерживаться от выставления некоторых аспектов ИИ в негативном свете и стараться упоминать их в более позитивном ключе.
Проверка научных работ прежде всего коснулась разработок в области ИИ, нацеленных на улучшение алгоритмов рекомендаций на различных платформах и сервисах Google (например, на YouTube или в поисковой системе). Требование связано с тем, что такие исследования могут коснуться этических вопросов при дробленьи пользователей на различные категории.
Согласно новому регламенту, творцы научных работ, когда уже приступать к исследованиям на темы классификации пользователей по расовому, половому признаку, политическим предпочтениям, настроениям и убеждениям, обязаны проконсультироваться с юристами, отделом внутренней политики и службой по связям с общественностью.
Как пишет агентство, в каком-то из документов Google для научных сотрудников говорится, что «развитие технологий и вырастающая сложность наружней среды все чаще приводят к ситуациям, когда чудящиеся безобидными проекты подымают этические, репутационные, нормативные или правовые вопросы».
Если верить словам нескольких теперешних и прошлых сотрудников Google проверка «деликатных тем» дополняет стандартную проверку публикаций на предмет неразглашения коммерческой загадочны и соответствия правилам компании.