Как да защитим данните си от изкуствения интелект и кибератаките
Според него изкуственият интелект застрашава и запазването на самоличността и личния ни живот
Рисковете от активното използване на изкуствен интелект са големи. Той трябва да се развива, но са нужни и строги регулации на глобално ниво. Това каза пред Нова тв експертът по киберсигурност Явор Колев.
„Притеснително е, че не знаем точно докъде са стигнали с развитието на изкуствения интелект в Китай. Има данни, че вече са много напред. В САЩ той също се развива изключително динамично”, каза още Колев. И допълни, че преди седмица Европол предупреди, че този тип нови технологии може да се използва за фишинг атаки и зловреден софтуер. „Това улеснява работата на съвсем неграмотни киберпрестъпници”, заяви още експертът.
Според него изкуственият интелект застрашава и запазването на самоличността и личния ни живот.
„Над 95% от успешните кибератаки се дължат на това, че не прилагат основните правила за киберхигиена. Сред тях са използването на антивирусни програми, сложни пароли, които да са различни за отделните приложения на телефоните и компютрите ни”, обясни Колев.
Драма на индонезийски остров, турист е отвлечен, похитители искат 10 млн. долара
Кукери гониха злото с гайди и чанове в Бродилово
Вежди Рашидов: Служебното правителство трябва да провери кадрите си, не се прави политика на инат
Емануил Йорданов: МВР допусна грешки по „Петрохан“, смяната на главния секретар не е трагедия
Телепортация ли са владеели рейнджърите от Петрохан
Катастрофа на АМ „Тракия“ край Чирпан, пожарникари рязаха автомобил
Цветлин Йовчев: „Петрохан“ не е рейнджърска група, има сериозни въпроси за оръжията и смъртта
Иван Кръстев: БСП е алтернатива на десния модел и ще влезе в следващия парламент
Ръководството на НАП си е раздало над 5 млн. лв. бонуси за 2025 г., твърди Ивайло Мирчев
Само две съставки и готово: чийзкейк бонбони за чай без печене
В кръвта на Ивайло Калушев е установен фенобарбитал, токсиколог дава обяснение
Валя Балканска с награда за духовен лидер на Women Leaders Awards 2026
