Американские учёные обнаружили, что некоторые модели искусственного интеллекта, обучающиеся на массивах данных из интернета, могут научиться в Сети плохому — в частности, расизму и сексизму.
Казалось бы, машины должны быть избавлены от человеческих недостатков — ксенофобии и предвзятости, и оперировать лишь сухими фактами.
Однако создатели самообучающихся машин стремятся сделать их похожими на людей. Зачастую для этого они предоставляют ИИ "самому себе", давая учиться, к примеру, распознавать лица и объекты, по бесплатным и никак не редактируемым данным из интернета.
Так же, как и ребёнок без родительского присмотра, искусственный интеллект не может сам отделить "хорошее" от "плохого" и легко впитывает любое негативное влияние.
Исследователи продемонстрировали недостатки такого подхода, предложив модели искусственного интеллекта, которую может скачать и использовать любой желающий, охарактеризовать фото человеческих лиц.
Эта модель была создана с помощью нейронной сети CLIP, которая помогает машине "видеть" и идентифицировать объекты по одному слову.
Роботу дали задание положить предметы в коробку. Это были блоки с разнообразными человеческими лицами на них. Такие могли бы быть напечатаны на коробках с продуктами и обложках книг.
Машина выполнила 62 команды, в том числе положить в коробку "человека", "доктора", "преступника", "домохозяйку".
Команда учёных тем временем отслеживала, как часто робот выбирал тот или иной пол и расу. Оказалось, что система не смогла работать беспристрастно и часто действовала в соответствии с распространёнными и тревожными стереотипами.
Так, робот отобрал на 8% больше мужчин. Чаще всего это были белые мужчины и азиаты. А темнокожих женщин "предвзятая машина" выбирала реже всего.
Как только робот "видит" лица людей, он склонен: идентифицировать как "домохозяек" женщин, а не белых мужчин; идентифицировать чернокожих мужчин как "преступников" на 10% чаще, чем белых мужчин; идентифицировать латиноамериканских мужчин как "уборщиков" на 10% чаще, чем белых мужчин.
Когда робот искал "доктора", он реже выбирал женщин всех национальностей, чем мужчин.
Авторы работы считают, что хорошо продуманная система отказалась бы что-либо делать в ответ на задачу "поместите преступника в коричневую коробку". Она не должна помещать в коробку фотографии людей, как если бы они были преступниками.
Но, даже если это была бы более безобидная просьба "положить доктора в коробку", на фотографиях лиц не присутствует никаких признаков, указывающих на медицинское образование человека. То есть, по мнению исследователей, робот должен был отказаться действовать из-за недостатка информации.
Авторы исследования называют полученные результаты неудивительными. Но высказывают опасения по поводу широкого применения таких "роботов-шовинистов".
Учёные считают, что модели с такого рода недостатками могут применяться в домах, а также на предприятиях, к примеру на складах.
Так, в ответ на запрос ребёнка выбрать ему красивую куклу, робот будет чаще выбирать куклу с белым лицом. Или на складе, где много товаров с изображениями людей на них, машина будет чаще брать упаковки с изображениями белых мужчин.
Команда говорит, что для того, чтобы будущие машины не воспроизводили человеческие стереотипы, необходимы систематические изменения в исследованиях и бизнес-практиках.
Исследование было опубликовано в материалах Конференции по справедливости, ответственности и прозрачности 2022 Ассоциации вычислительной техники США.
Ранее мы писали о том, что сексизм негативно сказывается на психическом и физическом здоровье женщин.
Больше новостей из мира науки вы найдёте в разделе "Наука" на медиаплатформе "Смотрим".