Зад дизайна: Преодоляване на стереотипите, част 8

Дина Бас, Bloomberg News за Сиатъл

20:00 | 2 януари 2022
Преводач: Кирил Петков

Лицевото разпознаване не е единственият пример на алгоритмично пристрастие.

Машинното обучение е често ползван дял от сферата на изкуствения интелект.

Използват се големи количества данни за тренирането на модели за познаване.

"Ако искаме компютърът да различава котките от кучетата можем да му покажем много примери за кучета и котки. Така компютърът започва да разбира, че острите уши вероятно са котешки, мустаците са обикновено котешки и увисналите уши са на кучета. Използва тези разлики, за да различи всяко ново изображение, което може да включва куче или котка", казва Иниолуа Дебора Раджи, изследователка в Лигата за алгоритмична справедливост.

Ако всичките котки, които му покажете са бели, и всички кучета са сивкави или черни, какво ще се случи ако му подадете снимка на черна котка?

Всички котки, за които алгоритъмът е научил, че са котки, са бели.

Всяко черно животно, което е видял е куче.

Така алгоритъмът може да сметне обекта на новата снимка за куче, докато всъщност е просто черна котка.

Понякога проблемът произхожда от ограничен куп начални данни.

Понякога моделът е проблемен.

"Процесът е неотчетен. Данните са толкова много, че изкуственият интелект анализира данни, които не може да обхване напълно, данни за милиони примери. Алгоритъмът идентифицира връзки, за да разработи система за данните, които получава и връща. Но като хора не бихме разбрали всяка връзка, направена от компютъра", казва Иниолуа Дебора Раджи.

Процесът е неотчетен.

Данните са толкова много, че изкуственият интелект анализира данни, които не може да обхване напълно, данни за милиони примери.

Алгоритъмът идентифицира връзки, за да разработи система за данните, които получава и връща.

Но като хора не бихме разбрали всяка връзка, направена от компютъра.

Тези алгоритми трябва да се учат с времето.

Трябва да могат да приемат нови данни от ползващите ги.

Дори ако създадете алгоритъм и при проверките ви за пристрастие не забележите нищо, новите данни, начинът, по който алгоритъмът бива употребяван, биха могли да създадат пристрастие у него.

Статия на ProPublica разгледа софтуер, ползван за предсказване на бъдещи престъпници, на хора с по-голяма вероятност да извършат престъпление.

Откриха, че този широко ползван алгоритъм има пристрастие срещу тъмнокожите.

Този алгоритъм се ползва за всякакви цели, било за определяне на гаранция в съда, за определяне на присъда, за това кой ще получи право на обжалване.

Алгоритъмът смяташе афроамериканските обвиняеми за по-рискови от белите.

ProPublica проследи някои от случаите и се оказа, че белите обвиняеми извършват повторно престъпление два пъти по-често от афроамериканците.