Очаквам да ни залее вълна от фалшиво съдържание, генерирано с помощта на изкуствен интелект (AI). От края на миналата година наблюдаваме бум в българското медийно пространство и социални мрежи. AI дава възможност на недоброжелатели да създават много реалистични изображения и видеа, които идентично копират поведението и гласа на жертвата, разкри експертът по киберсигурност Любомир Тулев в предаването „UpDate“ с водеща Елена Кирилова.
По думите му множество платформи както с платен, така и с безплатен достъп, дават възможност за създаването на фалшиви материали. Те изискват прикачването на звуков запис на жертвата с продължителност от поне 3 минути, тъй като е доказано, че човек успява да изговори всички букви от азбуката в рамките на това време. Така технологията успява да разцепи и усвои всяка буква по начина, по който я изговаря човекът, и създава автентично видео съдържание. От своя страна, създателят на видеото написва текста, който изкуственият интелект да възпроизведе с гласа на жертвата.
"Масово тези видеа целят измама... Изкуственият интелект все още не е станал съвършен. При внимателно вглеждане можем да видим леко разминаване в конкретно движение на човека или в начина, по който някои от думите се изговарят."
Тулев уточнява, че към момента съществуват инструменти, които да покажат дали е използван AI в създаването на даден текст. Що се касае до фалшиви видеа и изображения, все още няма достатъчно добре разработени платформи, които да засичат намесата на изкуствен интелект. Гостът допълва, че в това отношение миналата година Европа е изготвила законопроект, който би следвало да влезе в сила в държавите членки в следващите две години. Той има за цел регулирането на начина, по който ще се използва AI, чрез вграждането на т. нар. воден знак във всеки един материал, създаден от технологията .
"За съжаление, законодателният отговор на новите действия, които се случват в реалния живот, винаги вървят със закъснение."
Целия коментар гледайте във видеото.
Всички гости на предаването "UpDate" може да намерите тук.