Беше трудно да не се разплача по време на демонстрацията на последния ъпгрейд на ChatGPT. Вместо да покаже чатбот, който звучи по-надеждно, OpenAI даде на света такъв, който изпълнява всички функции на послушна жена, кикоти се на лудориите на своите изследователи мъже и хвали облеклото им. Възникналото възмущение от приликата на гласа със Скарлет Йохансон обаче не отчита един по-дълбок смисъл. Водещите световни конструктори на изкуствен интелект създават софтуер, който затвърждава стереотипите за жените. И има сериозна причина за това: Просто има твърде малко замесени жени.
Според данни, събрани за Bloomberg Opinion от фирмата за бизнес разузнаване Glass.ai*, която е използвала технология за машинно обучение, за да проучи уебсайтовете на технологични компании и хиляди профили в LinkedIn на служители, занимаващи се с изкуствен интелект, в OpenAI само 18% от персонала, работещ по разработването на нейната технология, са жени. Създателят на ChatGPT е най-зле сред останалите водещи фирми в проучването, проведено през май 2024 г.
Въпреки че главният технологичен директор на OpenAI, Мира Мурати, е жена (и за кратко беше главен изпълнителен директор по време на миналогодишната драма, когато Сам Алтман беше уволнен), само 122 от 686-те служители на компанията, чиято работа е свързана с изграждането на системи за ИИ, са жени. Разминаването беше още по-голямо преди година, когато Glass.ai направи подобно проучване на профилите в LinkedIn и установи, че жените съставляват едва 12 % от изследователския персонал на OpenAI.
Когато жените и етническите малцинства не играят роля в изграждането на важни технологии като ИИ, има много по-малък шанс някой да сигнализира за потенциални пристрастия, преди те да бъдат вградени в дадена система. Amazon.com Inc. например използва алгоритъм за набиране на персонал, който изключва автобиографиите на жените, тъй като е бил обучен на базата на автобиографии, подадени предимно от мъже. Това можеше да не се случи, ако повече жени бяха работили по тази система в Amazon. Според книгата „Невидимите жени“ на Каролин Криадо-Перес е доказано, че алгоритмите, които сканират рентгенови снимки на гръдния кош, системно поставят недостатъчно добри диагнози на пациентки, отново защото много от медицинските модели на изкуствен интелект са обучени на данни, които са предимно от мъжки пол.
Най-новата реколта от генеративни инструменти за изкуствен интелект е също толкова крещяща. Генераторите на изображения са направили така, че жените да изглеждат по-сексуализирани от мъжете, а разследващ доклад на Bloomberg News установи, че Stable Diffusion, създателят на изображения с отворен код на ИИ, се стреми да забрави, че жените изобщо съществуват. Той създава три пъти повече изображения на мъже, отколкото на жени. Мъжете преобладават в изображенията на високоплатени професии, като инженери, изпълнителни директори или лекари, докато жените са изобразени на нископлатени работни места, като домакини и касиерки.
Нищо от това няма да изненада жените изследователи на изкуствения интелект, запознати с наследството на тази област, свързано с обективизирането на жените. Дори преди неотдавнашния бум на генеративния ИИ учените са били известни с това, че са тествали работата на своите модели, като са ги използвали за поставяне на грим върху изображения на женски лица или като са сменяли дънките им с минипола, според неотдавнашна публикация в блога на Саша Лучиони, изследовател във фирмата за ИИ с отворен код Hugging Face.
Всеки път, когато говори за тези методи, Лучиони казва, че е срещала отпор. „В крайна сметка това беше просто един бенчмарк“, пише тя и посочва, че в академичните среди жените са също толкова плачевно слабо представени, като съставляват 12 % от изследователите в областта на машинното обучение.
Това е сложен проблем, чието решаване отнема години, тъй като се корени в образователната система и системните културни норми. Но OpenAI и нейните колеги могат да възпрепятстват много съвременни усилия за изравняване на шансовете, като например привличането на повече момичета и жени в STEM индустриите, ако техните системи продължават да поддържат стереотипи. Изкореняването на пристрастията в данните, които те използват за обучение на своите алгоритми, е една от стъпките към решаването на проблема. Друга е просто да се наемат повече жени изследователи, за да се преодолее хроничният дисбаланс. Ако не го направят, очаквайте бъдещите им продукти да бъдат още по-грозни - и дори вредни.
---------------------------- *Софтуерът на Glass.ai: За да идентифицира и събере подробна информация за служителите на ИИ, софтуерът на Glass.ai обхожда уебсайтовете на технологични компании и сканира профилите в LinkedIn на стотици хиляди техни служители. За да направи кратък списък на екипите по ИИ, обхождащият софтуер търсеше хора с термини/фрази за ИИ в техните длъжностни наименования/описания, включително: AI, AI Architect, AI Developer, Artificial Intelligence, Autonomous Vehicle, Big Data, Computer Vision, Data Science, Data Scientist, Deep Learning, Language Models, LLM, Machine Intelligence, Machine Learning, ML, Natural Language, Neural, NLP, Research Scientist и др. Изключени са хората, работещи във финансите, продажбите, маркетинга, човешките ресурси и други „нетехнически“ отдели. Например служителите в Google, работещи в областта на набирането на персонал за изкуствен интелект, специалистите по продажби в Microsoft, продаващи решения за изкуствен интелект, и др.