С развитието на изкуствения интелект така наречените дълбоки фалшификати (deepfake) материали ще започнат да се появяват все по-често. За това е ключово обществото да може да ги разпознава. Установяването на фалшификат се случва с комбинация от техники, анализирайки светлината, отраженията, това дали има синхрон между говор във видеото и звука, който чуваме и други. Вече има и различни софтуери, които извършват тази дейност, това коментира Габриела Иванова, адвокат, в предаването "UpDate" с водеща Елена Кирилова.
От 1 август тази година влезна в сила Законът за изкуствения интелект на ЕС, който регламентира използването и развитието на технологията. Заедно с вече действащият Закон за цифровите услуги дават защита на потребителя от зловредно използване на ИИ, включително и deepfake. В България все още липсва регламентация на национално ниво, но гостът обясни, че позовавайки се на други разпоредби жертвите на дълбоки фалшификати ще могат да защитят правата си.
„Към момента няма синхронизиран подход на национално ниво на държавите-членки, както и между различните законодателства на държавите на глобално ниво и ниво ЕС. Много е трудно да бъде идентифицирано подобно нарушение, тъй като много често нарушителите са извън националните рамки и действат анонимно, правейки ги трудни за проследяване. Създаването на обща правна рамка би помогнало, както и координиран подход на световно ниво между държавите.“
Понякога регулаторите бързат да създадат правна рамка, която все още не може да бъде приложена. Ключово е, регулирайки ИИ, държавите-членки да направят анализ как да бъдат приложени ограниченията. Също така е много важно създаването на органи, които ще упражняват надзорна дейност, както и комуникацията между тях на наднационално ниво. Събеседникът допълни, че дори и всичко да се направи далновидно, то тази технология се развива с изключително бързи темпове и може отново да изпревари регулаторите.
Целия коментар гледайте във видеото.
Всички гости на предаването „UpDate“ може да гледате тук.