Как да защитим данните си от изкуствения интелект и кибератаките
Според него изкуственият интелект застрашава и запазването на самоличността и личния ни живот
Рисковете от активното използване на изкуствен интелект са големи. Той трябва да се развива, но са нужни и строги регулации на глобално ниво. Това каза пред Нова тв експертът по киберсигурност Явор Колев.
„Притеснително е, че не знаем точно докъде са стигнали с развитието на изкуствения интелект в Китай. Има данни, че вече са много напред. В САЩ той също се развива изключително динамично”, каза още Колев. И допълни, че преди седмица Европол предупреди, че този тип нови технологии може да се използва за фишинг атаки и зловреден софтуер. „Това улеснява работата на съвсем неграмотни киберпрестъпници”, заяви още експертът.
Според него изкуственият интелект застрашава и запазването на самоличността и личния ни живот.
„Над 95% от успешните кибератаки се дължат на това, че не прилагат основните правила за киберхигиена. Сред тях са използването на антивирусни програми, сложни пароли, които да са различни за отделните приложения на телефоните и компютрите ни”, обясни Колев.
Етичната комисия към Прокурорската колегия се самосезира заради Емилия Русинова
Иран с остро послание към САЩ и Израел след ново изявление на военните
Бизнесът и кабинетът търсят спешни решения срещу скъпия ток за индустрията
Хасан Адемов: Идеята е двете деца от Ямбол да бъдат настанени заедно в приемно семейство
На изчезване ли са автомобилите с ръчна скоростна система
В Египет се радват - минималната заплата стана 130 евро
Президентът: За успешен туристически сезон трябва да представим България като сигурна дестинация с конкурентни цени
През април сняг затрупа Родопите, а тир блокира участък край Стойките
Лизо разкри кога е загубила девствеността си и защо е чакала до първата си награда Грами
Бургаските каратеки на „Ронин“ със 7 медала в конкуренция с над 500 състезатели в София
Мъск е на път да стане първият трилионер в света
Колко струва един глас за изборите? Зависи от региона, но поне 50 евро
