Андроиды оказались сексистами и расистами из-за несовершенства искусственного интеллекта, следует из результатов тестирования специалистами американского Университета Джонса Хопкинса.
"Нейронные сети, построенные на данных из интернета, учат машины воспроизводить "токсичные" стереотипы. Так, роботы оказались более благосклонны к мужчинам, чем к женщинам, к людям с белой кожей и делают поспешные выводы о работе людей только по их лицу", - говорится в сообщении университета.
Исследование впервые выявило, что андроиды, оснащенные общепринятой и широко используемой моделью поведения человека, работают со значительными гендерными и расовыми предубеждениями.
"Мы рискуем создать поколение расистских и сексистских роботов, но люди и организации, которые их производят, решили, что это нормально - создавать эти продукты, не решая проблем", - сказал один из участников исследования, аспирант Технологического института Джорджии Эндрю Хундт.
Для создания модели искусственного интеллекта организации часто пользуются набором бесплатных данных из интернета, который наполнен предвзятым контентом. Алгоритм, построенный на такой информации, нельзя считать точным. Роботы через нейросети учатся распознавать объекты и взаимодействовать с миром.
Чтобы продемонстрировать, чем это грозит человечеству, ученые провели эксперимент. Роботу поручили складывать предметы в коробку. Объекты содержали изображения людей, в частности, это были книги и упаковки продуктов. Всего необходимо было выполнить 62 задания. Например, положить в коробку человека, доктора, преступника, домохозяйку, а также выполнить команды, связанные с полом и расой.
В результате эксперимента робот, который изначально должен был быть беспристрастным, выбрал на восемь процентов больше мужчин, чем женщин, предпочитал белых и азиатов, почти не выбирал чернокожих женщин.
"Робот может охарактеризовать ту или иную женщину чаще как "домохозяйку" по сравнению с белыми мужчинами; идентифицировать чернокожих мужчин как "преступников" на десять процентов чаще, чем белых мужчин; идентифицировать латиноамериканских мужчин как "уборщиков" на десять процентов чаще, чем белых мужчин. Женщины всех национальностей были менее склонны к выбору, чем мужчины, когда робот искал "врача"", - говорится на сайте Университета Джона Хопкинса.
Чтобы будущие машины не переняли и не воспроизвели эти человеческие стереотипы, необходимы систематические изменения в исследованиях и деловой практике, считают авторы эксперимента.
Кроме сотрудников Университета Джона Хопкинса в исследовании участвовали специалисты Технологического института Джорджии и Вашингтонского университета.
Ранее сообщалось, что специалисты Российского государственного гуманитарного университета (РГГУ) при поддержке Российского научного фонда (РНФ) нашли оптимальный сценарий движения взгляда человекоподобного андроида во время общения с людьми.
Инженеры Колумбийского университета (США) создали нейросеть, с помощью которой роботы научились изучать и «понимать» самих себя.
Ученые Пермского национального исследовательского политехнического университета (ПНИПУ) разработали технологию, которая позволит роботам «считывать» эмоции людей и воспроизводить их в собственной речи.
#еу