AI може да извършва превенция на кибератаки, но компаниите не споделят информация
Петър Маринов, директор по сигурността в Delta.bg, в "UpDate" 28.04.2024 г
Обновен: 10:46 | 29 април 2024
Често компаниите след като са овладели дадена кибератака и са адресирали източника да не споделят за случая и да оставят вътрешните екипи за киберсигурност да се справят с анализирането и бъдещата превенция. Но ако тази информация бъде подадена на един генеративен изкуствен интелект, то той може да анализира и да изготви модел, по който да вземе решение и това решение да бъде общодостъпно на всички ползватели на дадения ИИ, това коментира Петър Маринов, директор по сигурността в Delta.bg, в предаването "UpDate" с водеща Елена Кирилова.
Хакерите използват изкуствения интелект (ИИ) за атаките си, за да намират слабости чрез информацията изпратена към генеративния ИИ, каза Маринов. Той допълни, че ако искаме ИИ да бъде използван за защита от кибернападения, то той трябва да бъде обучен с правилната информация. Времето за реакция е най-важно при киберзащитата, като хакерите често се опитват да разберат именно него.
Ако повече компании развиват вътрешен изкуствен интелект, а не използват общодостъпните ще бъдат по-защитени, тъй като информацията няма да е публична и ИИ може да бъде обучен специално за нуждите на компанията. Компаниите могат да развиват собствени протоколи за сигурност по този начин, което ще повиши сигурността им.
Финансовите компании са едни от най-често атакуваните в киберпространството, тъй като те пазят чувствителна информация, която струва много пари. Целта на хакерите е да намерят такава информация, която би била от полза на конкурентите на дадената компания или на злонамерени лица. Гостът обясни, че независимо как бива използват ИИ в работата на компаниите, важното за хакерите е информацията, с която той борави, което го прави потенциален обект на атака.
Изкуственият интелект все повече бива интегриран в различните инструменти в системите за сигурност. Технологията става все по-полезна в зависимост колко информация бива споделена с нея. Гостът обясни, че в България често компаниите не обичат да разкриват информация за кибератаките срещу тях, което би помогнало за научаването на моделите на ИИ с цел превенция.
„Понякога хората се страхуват от репутационен риск, не използват съответния инструментариум, като много малко хора знаят, че в България имаме форма за докладване на тези инциденти и има национален екип реакция при инциденти с киберсигурнсотта. Много често се случва след като атаката е овладяна и източникът е адресиран всичко да приключи, като евентуално киберспециалисти в дадените фирми да направят собствен вътрешен анализ. В същото време ако тази информация бъде подадена на един генеративен ИИ, той може да анализира и да изготви модел, по който да вземе решение и това решение да бъде общодостъпно на всички ползватели на дадения ИИ.“
Delta.bg използва изкуствен интелект в защитните си стени, тъй като там атаките са най-многобройни и се събира огромно количество информация, с която ИИ може да бъде обучен. Трябва информацията да бъде анализирана след това от човек, тъй като евентуална грешка на ИИ би компрометирала всички бъдещи решения на модела.
Изкуственият интелект навлиза все повече в операциите на компаниите и сред киберспециалистите. Технологията помага за оптимизирането на оперативната работа, тъй като събира информация и я обработва много бързо. Така ИИ поема „ръчната“ работа от киберспециалистите и увеличава обемите ѝ.
Целия коментар гледайте във видеото.
Всички гости на предаването "UpDate" може да гледате тук.