Ако вашата компания използва изкуствен интелект (AI) за създаване на съдържание, вземане на решения или влияние върху живота на другите, вероятно ще бъдете отговорни за каквото и да направи системата – особено когато направи грешка, пише The Wall Street Journal.
Това се отнася и за големи технологични компании, които пускат чатботове с AI за обществеността, включително Google и Microsoft, както и добре финансирани стартиращи компании като Anthropic и OpenAI.
„Ако през следващите години използваме AI по начина, по който повечето коментатори очакват, като разчитаме на него за голяма част от нашето съдържание и преценки, не мисля, че компаниите ще могат да избягат от някаква форма на отговорност“, казва Джейн Бамбауер, професор по право в Университета на Флорида, която е писала по тези въпроси.
Последствията от това са важни. Всяка компания, която използва генеративен AI, може да носи отговорност съгласно законите, които уреждат отговорността за вредна реч, и законите, уреждащи отговорността за дефектни продукти - тъй като днешните AI са създатели както на реч, така и на продукти. Някои правни експерти казват, че това може да създаде поток от съдебни дела за компании от всякакъв размер.
Вече е ясно, че последствията от продукцията на изкуствения интелект може да надхвърлят заплахата за репутацията на компаниите. Притесненията относно бъдещата отговорност също помагат да се обясни защо компаниите манипулират системите си зад кулисите, за да избегнат проблемни резултати – например, когато Gemini на Google се оказа твърде woke. Това също може да е двигател на усилията на индустрията да намали „халюцинациите“, терминът за това, когато генеративните AI си измислят неща.
Правната логика е ясна. Раздел 230 от Закона за благоприличие в комуникациите на САЩ от 1996 г. отдавна защитава интернет платформите от търсене на отговорност за нещата, които казваме на тях. (Накратко, ако кажете нещо клеветническо за вашия съсед във Facebook, той може да съди вас, но не и Meta.) Този закон беше основополагащ за развитието на ранния интернет и може би е една от причините много от най-големите днешни технологични компании да растат в САЩ, а не другаде.
Но раздел 230 не обхваща речта, генерирана от изкуствения интелект на компанията, казва Греъм Райън, адвокат в Jones Walker, който скоро ще публикува статия в Harvard Journal of Law and Technology по темата. „Генеративният AI е Дивият запад, когато става дума за правен риск за компаниите за интернет технологии, за разлика от всяко друго време в историята на интернет от самото му създаване“, добавя той.
Според правни експерти от целия идеологически спектър никой не очаква, че раздел 230 ще защити компаниите от съдебни дела за резултатите от генеративния AI, които сега включват не само текст, но и изображения, музика и видео.
А списъкът с потенциални обвиняеми е много по-широк от шепа големи технологични компании. Компаниите, които просто използват генеративен AI - да речем, като използват технологията на OpenAI като част от услуга, предоставена на клиент - вероятно ще бъдат отговорни за резултатите от такива системи. Това е потенциално огромна вселена от услуги, вариращи от оценка на инвестиции до предоставяне на поддръжка на клиенти.
Сред най-убедителните индикации, че компаниите няма да бъдат защитени от действащото законодателство, е изявлението на съдията от Върховния съд на САЩ Нийл Горсуч от началото на 2023 г. по темата.
При обсъждане на случай по Раздел 230 пред съда, той каза: „Изкуственият интелект генерира поезия. Той генерира полемика днес, която би била съдържание, което надхвърля избирането, анализирането или смилането на съдържание. И това не е защитено."
И докато компании като OpenAI спорят в правни бележки дали изтриването на защитено с авторски права съдържание от интернет се брои за кражба на интелектуална собственост, те всъщност може да навредят на аргумента си, че не носят отговорност за съдържанието, което техните системи произвеждат.
Някои AI компании твърдят, че техните AI „съществено трансформират“ цялото съдържание, върху което се обучават. Това означава, твърдят те, че те не нарушават защитата на авторските права, съгласно доктрината за честна употреба. Ако това е вярно, това изглежда показва, че те са „съществени съ-създатели“ на съдържанието, което показват. Това е точката, в която една компания вече не просто показва съдържание и губи защитата на раздел 230, казва Райън.
Раздел 230
Обикновено, когато компаниите намерят пропуски в съществуващите закони, те лобират пред Конгреса на САЩ за коригиране. Но напоследък Конгресът искаше да премахне някои от защитите, които раздел 230 вече предлага, като уточни, че компаниите могат да имат защита по раздел 230 само ако играят по определени правила. Сегашното настроение на Конгреса е обратното на това, което искат компаниите, които правят и използват AI.
„В дискусията „Какво искате да направите относно раздел 230“ – отговорът, който много законодатели ще ви дадат, е „Трябва да го изтрием“, казва Адам Терие, старши сътрудник в R Street Institute, консерватор мозъчен тръст. В резултат на това компаниите са готови просто да се придържат към съществуващия закон и да не агитират за никакви промени, добавя той.
Сложната работа по измислянето как да се приложат старите закони към AI може да се извърши най-добре за всеки отделен случай в съдебните палати, казва Бамбауер от Университета на Флорида.
Нейният аргумент по същество е, че като оставят случаите да се разиграват, докато се разкрива нова информация за вредите и ползите от AI, компаниите могат да имат свободата да правят иновации, но могат да бъдат овладени, когато прекалят.
Кой е виновен, когато AI причинява вреда?
OpenAI е съден за клевета в поне два случая, включително един, в който радиоводещ от Джорджия твърди, че чатботът на компанията е написал отговор, който лъжливо го обвинява в присвояване. Компанията твърди, че не носи отговорност за това, което нейният чатбот създава, тъй като нейният продукт е по-скоро текстообработваща програма, тъй като е инструмент, който хората използват за създаване на съдържание.
В документи до съда OpenAI отговори на иска. „По самото си естество съдържанието, генерирано от AI, е вероятностно и не винаги фактическо, и има почти всеобщ консенсус, че отговорното използване на AI включва проверка на фактите, преди да ги използвате или споделите“, пишат адвокатите на компанията.
Аргументът, че ChatGPT прилича повече на текстообработваща програма, отколкото на действителен създател на съдържание, вероятно ще се провали, казва Джейсън Шулц, директор на Клиниката за технологично право и политика на Нюйоркския университет. „Microsoft Word ви дава празен документ, не ви дава предварително написано есе“, добавя той.
Речта е един вид отговорност за компаниите, използващи генеритивен AI. Дизайнът на тези системи може да създаде други видове вреди – например чрез въвеждане на пристрастия при наемане, даване на лоши съвети или просто измисляне на информация, която може да доведе до финансови щети за човек, който се доверява на тези системи.
Тъй като AI системите могат да се използват по толкова много начини, в толкова много индустрии, може да отнеме време, за да разберем какви са вредите от тях в различни контексти и как най-добре да ги регулираме, казва Шулц.
Междувременно правната несигурност за компаниите, които използват генериращ AI, и произтичащите от това проблеми със съответствието и съдебни спорове, може да създадат неустойчив правен риск за мнозина, казва Райън от Jones Walker. Някои, като Терие от R Street Institute, вярват, че това е заплаха за развитието на цялата област на AI.
Други смятат, че превръщането на правната заплаха в управляема може да бъде толкова просто, колкото ограничаването на начина, по който се използват днешните генеративни AI инструменти. Ако създаването на AI чатботове и неща, които приличат на тях, доведе до твърде много съдебни дела, компаниите, разработващи основната AI технология, може просто да прекъснат достъпа до нея, казва Майкъл Караниколас, изпълнителен директор на Института за технологии, право и политика в UCLA.
„Ако разполагаме с тези инструменти и големи количества хора правят опасни неща в резултат на получаване на лоша информация от тях, бих казал, че не е непременно лошо да се определят разходи или отговорност в резултат на тези вреди, или да се направи нерентабилно предлагането на тези технологии“, добавя той.