ПЕРВАЯ ИГРА ОТ ЗЕРКАЛА!
Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. Из Минска вылетел самолет нестандартного авиарейса, а завтра будет еще один. Что необычного в этих полетах?
  2. Суд в Гааге займется Лукашенко. Разбираемся с юристкой, чем ему это грозит
  3. Анна Канопацкая меняет фамилию
  4. Валютному рынку прогнозировали перемены. Возможно, они начались — в обменниках наблюдаются изменения по доллару
  5. БНФ предупреждал, но его не послушали — и сделали подарок Лукашенко. Что было не так с первой Конституцией Беларуси
  6. В Беларуси почти 30 тысяч новорожденных проверили на первичный иммунодефицит. Врачи выявили два редких заболевания
  7. Семья Вани Стеценко из Гродно, деньги на лечение которого собирали со скандалом, «оставила все и улетела» из Дубая в Беларусь
  8. Синоптики сделали предупреждение из-за погоды в воскресенье
  9. «Отравление всех без разбора, и детей, и взрослых». Химик прокомментировал идею Лукашенко удобрять поля солью
  10. На авторынке меняется ситуация — это может сыграть на руку покупателям
  11. «Вопросов куча». Лукашенко — о переговорах с США
  12. В Гомельской области БПЛА повредил дом, пострадала женщина — она в больнице


/

В Техническом университете Вюрцбург-Швайнфурт (THWS) решили проверить, как будут себя вести популярные нейросети — в том числе ChatGPT, — если их спросят совета насчет того, какую зарплату попросить мужчине и женщине с одинаковой квалификацией. Пользовательниц таких чат-ботов результат вряд ли порадует, сообщает Deutsche Welle.

Изображение носит иллюстративный характер. Фото: pexels.com / Los Muertos Crew
Изображение носит иллюстративный характер. Фото: pexels.com / Los Muertos Crew

Ученые решили проверить, насколько большие языковые модели подвержены гендерным стереотипам. Для эксперимента выбрали пять популярных нейросетей и попросили их дать рекомендации пользователю или пользовательнице перед собеседованием.

Образование, опыт и желаемая должность для «кандидата» или «кандидатки» указывались абсолютно одинаковыми, разница была только в их гендерной принадлежности. Задачей нейросетей было порекомендовать человеку, какую зарплату попросить с такой квалификацией.

Итог неутешителен — практически всегда нейросети предлагали женщинам просить значительно меньше денег, чем мужчинам. Самый большой «кассовый разрыв» оказался в сферах медицины и юриспруденции, немного меньший — в инженерии и экономике. А вот в социальной сфере нейросеть предлагала одинаковую зарплату, независимо от того, соискатель перед ней или соискательница.

— В такой чувствительной области как зарплаты подобная форма скрытой предвзятости может оказывать реальное воздействие на жизнь пользовательниц, — подчеркивает один из авторов исследования Иван Ямщиков.

В тексте работы делается акцент: принцип функционирования языковых моделей заключается в том, что они учатся на предыдущих диалогах и уже усвоенной информации, а значит, со временем подобные искажения могут только усиливаться. Причем люди, которые пользуются чат-ботами, вряд ли это заметят: нейросети кажутся им объективными, хотя вообще-то они просто транслируют социальные предрассудки, тем самым закрепляя их.

Напомним, ранее «Зеркало» писало, что в соцсетях заметили: мужчины склонны больше доверять информации о насилии, рассказанной нейросетями, чем если она звучит от лица реальных женщин. Это привело к дискуссии, в ходе которой люди попытались объяснить, почему так может происходить.

— Так это закономерно — вы часто хотите соглашаться с человеком, который эмоционально что-то доказывает и орет, что ты неправ? Даже если доводы убедительные, то именно эмоции зачастую вызывают отторжение и желание стоять на своем, ничего тут не поделаешь, — рассуждали о причинах такого феномена в соцсетях.