×
Вкусно Бизнес ЮГ София Войната в Украйна Политика Общество Общини Спорт Разследване

Управител:
Веселин Василев, email: [email protected]

Главен редактор:
Катя Касабова, email: [email protected]

Коментарите под статиите се въвеждат от читателите и редакцията не носи отговорност за тях! Ако откриете обиден за вас коментар, моля сигнализирайте ни!

Категории
Вашият сигнал Връзка с Флагман Flagman в Telegram
Накратко
НА ЖИВО
Най-нови Най-четени Най-коментирани

Опасен ум: Изпускаме ли изкуствения интелект от бутилката?


Опасен ум: Изпускаме ли изкуствения интелект от бутилката?
Папата изглежда страхотно, стига да не се загледате в детайлите на фалшивата снимка - MidJourney все още не се оправя с човешките ръце
06 Май 2023, Събота, 21:00 ч.
Автор: Флагман

Според някои сме на крачка машините да станат по-умни от човека, но според други те все още са само некадърни преписвачи

Когато известният лингвист Ноам Чомски пита ChatGPT4 дали липсата на отношение към морала у него е неморална, изкуственият интелект отвръща: "Аз съм просто модел за машинно обучение и не мога да имам морални убеждения. Отговорност на хората е да гарантират, че изкуственият интелект се подчинява на техните морални и етични принципи". Чомски намира този отговор за дълбоко смущаващ, защото наподобява баналността на злото и неговото класическо оправдание "Аз само изпълнявах нареждания".

Чомски е част от група експерти, които предупреждават, че сме на прага на опасен скок в сложните си отношения с машините. Непосредственият повод е пробивът с няколко изненадващо успешни модела на изкуствен интелект, които изглежда преодоляват една бариера, смятана досега за недостижима - човешкия език. Някои от тези модели "разговарят" и пишат, други превръщат текстово описание в образ, трети даже и във видео. ChatGPT4 и компания пишат дисертации, вестникарски статии, стихотворения, даже вече продават книги в "Амазон". Те генерират и правдоподобни образи - потенциалът им да променят цели сектори от индустрията е огромен. Защо тогава настроенията сега се разминават с тези отпреди 36 г., когато суперкомпютърът на IBM Deep Blue ("Дълбокото синьо") за пръв път успя да бие Гари Каспаров на шах?

Тревогите само започват оттам колко трудно става да разпознаваме фейк от факт в тази нова ера. Отвъд познатите рискове за пръв път изглеждаме близо и до научнофантастичния момент, когато машината ще стане по-умна от човека. Даже Илон Мъск смята, че изкуственият интелект може да унищожи нашата цивилизация. Тази седмица пионерът на изкуствения интелект Джефри Хинтън обяви, че напуска "Гугъл", за да може свободно да говори за опасностите от новите модели. Хинтън, който през 2012 г. създава невронна мрежа (изчислителен модел за обработка на информация, наподобяващ човешкия мозък и ключова част от ИИ), отчасти съжалява, че е допринесъл за развитието на тези технологии. Според него, те пораждат страшни опасности. "Тези модели са в състояние да произвеждат огромно количество текст и могат да бъдат впрегнати за манипулации на избирателите", дава един пример Хинтън. Представете си, обяснява той, че имате 10 000 души и всеки път, когато един от тях научи нещо ново, всички останали също автоматично го разбират. Ето така тези чатботове знаят много повече от който и да е отделен човек.

Преди месец над 1000 души, които по един или друг начин стоят в първите редици на технологичната индустрия, призоваха с отворено писмо да се преустановят разработките на "гигантски" изкуствен интелект за поне шест месеца, за да може междувременно да се изследват възможностите и рисковете на системи от типа на GPT-4 и да се заложат в тях защитни механизми. "В последните месеци наблюдаваме една излизаща от контрол надпревара между лабораториите за изкуствен интелект, които се надбягват да създадат все по-мощни дигитални умове, които никой - дори техните създатели - не може да разбере, прогнозира или контролира по надежден начин", се посочва в писмото. Авторите му настояват подобни системи да се разработват само когато сме сигурни, че тяхното въздействие ще бъде позитивно и рисковете - управляеми.

В последните седмици все по-често слушаме, че заплахите от ИИ засягат съществуването на човечеството, но според мнозина преди този холивудски сюжет да ни сполети, пред нас има вече реални проблеми - заличаването на границата между истина и изкуствено създаден образ или текст, експлоатацията на лични данни и авторски права, академичните злоупотреби.

От текст към образ - носи ли папата "Баленсиага"

Видимият напредък в създаването на образи в последните месеци е една от причините толкова често да говорим за изкуствен интелект. Последните версии на Midjourney все още не правят разлика между сълзотворен газ и мляко, но въпреки това са удивително достоверни. В края на март тази програма създаде може би първия свръхпопулярен образ на ИИ - папата в бяла пухенка на "Баленсиага". "Абсолютно невероятен напредък! Версия 5 прави неща, които компютърната графика не може да постигне вече десетилетия", възкликна за този инструмент един потребител. Елиът Хигинс, основател на "Белингкат", на игра направи кадри как полицията отнася яростно съпротивляващ се Тръмп към ареста... докато чака същинския арест на бившия американски президент. Вече даже има програма за превръщане на текст във видео - Modelscope text2video, макар че съдейки по експериментите с  "Уил Смит яде спагети", тук има какво още да се желае. Има и ИИ, който превръща 2D в 3D - нещо, което преди е изисквало време и няколко програми, сега става за нула време с "Айфон".

С играта обаче често става плачка. Тази седмица се оказа, че "Амнести Интернешънъл" е пуснала несъществуващи снимки на реално съществуващи протести от 2021 г. в Колумбия. Организацията е известен бранител на истината, а причината е благородна - да не се излагат на опасност протестиращите, чиято самоличност лесно може да бъде установена от полицията по снимките. Постъпката обаче предизвика вълна от възмущение, защото налива вода в мелницата на конспиративните теории и руши доверието към институцията, отглеждано с години. Впрочем кадрите изглеждат реалистични само на пръв поглед. При по-внимателен преглед се вижда, че цветовете на колумбийското знаме са тези, но не в този ред, а униформата на полицаите не отговаря на периода.

Познай кой говори

Образите са един от няколко проблема с новите усъвършенствани версии на ИИ. Той вече може доста сполучливо да наподобява конкретни човешки гласове. Разследване на австралийската редакция на "Гардиън" например установи, че машината имитира човешки глас толкова успешно, че успява да заблуди система за гласова идентификация, ползвана от австралийското правителство. На този фон по-конвенционалните страхове, че стотици хора от филмовите дублажи например ще останат без работа, изглеждат като бял кахър.

От робота за роботи

Изкуственият интелект вече е свръхпродуктивен автор и на книги - в "Амазон" е пълно със заглавия, които претендират да са излезли не от човешки ум. Някои от тях, естествено, са за роботи. "Историите са добре написани, забавни, с правилна пропорция от екшън, приключения и хумор. Героите са добре развити и печелят симпатиите", гласи едно ревю от читател. "Яко е да живеем във време, когато изкуственият интелект още не ни се е ядосал!", пише потребител на друга книга от ИИ, този път детска.

Плагиатство без граници

Извън фалшивите новини, внезапно проговорилите модели на изкуствен интелект създават цял набор от други проблеми на академичния свят и въобще образованието. Много е вероятно да виждаме последните дни на домашното каквото го познаваме. Натам вървят и курсовите работи, дипломните работи, дисертациите и пр., като предстои да видим какво ще остане от академичността, когато всички започнат да разчитат на ИИ. Проф. Итън Молик от Университета на Пенсилвания например накарал GPT-4 да направи сурова, но справедлива рецензия на една стара научна публикация, при това от гледната точка на икономически социолог. Изкуственият интелект му върнал съвсем прилична оценка, която до голяма степен се покривала с бележките на истинските му колеги. "Не съм сигурен какво да мисля по този въпрос като академик", признава проф. Молик.

Друг потенциален проблем, на който се натъква в истинския свят професор от университета в Тилбург, Нидерландия. Една негова научна публикация наскоро била отхвърлена от рецензент, който вероятно е ползвал ИИ, тъй като в препоръката са изброени несъществуващи източници. Проверка с GPT-2 (по-стара версия на популярния модел) потвърждава, че рецензията е написана от ИИ. Фалшивите източници и библиографии се оказват често срещан дефект - на въпрос коя е най-цитираната икономическа публикация на всички времена, ChatGPT дава напълно измислена статия. За да разберем защо, трябва да видим как работи изкуственият интелект.

 

Революция или нескопосан преписвач

Всичко, което генерира изкуственият интелект, вече е създадено от човека. Неговите снимки и видеа например са съшити от милиони фотографии, направени от реално съществуващи хора. Текстовете му се захранват от стотици хиляди сайтове. Тези текстове и образи се преработват през невронни мрежи, които се учат да правят асоциации между специфични и дълбоко нюансирани особености - форми, цветове, композиции, и определени думи и фрази, с които е тагнат образът. След това тези качества се наслагват едно върху друго, за да произведат нови аранжировки на форма, цвят и композиция.

ChatGPT пък стъпва върху езиков модел, който разпределя вероятности върху последователност от думи. Най-общо казано, ходът на мисълта му е следният: Като се има предвид началото на изречението, трябва да отгатна как е най-вероятно то да продължи. Един елементарен пример - ако му зададем "Зеленчуци който не яде...", ИИ ще прегледа огромната си библиотека и ще излезе с най-вероятното продължение - "той голям не ще да порасте". Разбира се, ChatGPT е много по-софистициран от това - той "предсказва" и началото на изречението, и може да напише цял смислен документ. Попитан коя е най-цитираната икономическа статия в историята, моделът може за секунди да установи, че в огромната си част тези статии съдържат думите "икономика" и "теория". Третата по вероятност дума е история. Като прибавим статистическия факт, че тези статии имат обикновено двама автори, нашата несъществуваща статия е готова.

Друг пример - тъй като вече има програми за проследяване на лична информация в тези данни, една художничка от САЩ открива в чатботовете своя снимка, направена при преглед при лекар и уж защитена от всякакви външни очи. Иначе казано, както пише в един обширен материал на "Гардиън" по темата, когато се радваме на розовата плът на прасенцето, нарисувано в стил "Екзюпери", не знаем дали тя не е крадена от плътта на някой пациент с рак например.

Какво чете ИИ

Вижда се от тези опростени примери, че първичната хранителна среда на ИИ е един твърде любопитен въпрос. "Чатботовете не могат да мислят като хора - те не разбират какво казват. Те само имитират човешката реч, защото изкуственият интелект, който ги управлява, е погълнал огромно количество текст, повечето събран от интернет", започва едно мащабно разследване на "Вашингтон Пост" за първоизточниците на тази информационна суровина. Те се укриват старателно от технологичните компании, но вестникът успява да надникне в една от тези "черни кутии" - базата данни на "Гугъл" C4, в която е сканирано съдържанието на 15 млн. сайта и която се ползва за обучение на няколко от известните езикови модели като T5 на "Гугъл" и LLaMA на "Фейсбук". (OpenAI, която прави ChatGPT, не разкрива какви данни ползва за обучение на модела си).

Тази база данни се доминира от обичайните източници - медии, сайтове за кино и музика, софтуер, медицина и пр. Трите най-големи са сайтът на "Гугъл" за патентите, "Уикипедия" и дигиталната библиотека scribd.com. В резултатите обаче на предни позиции има и някои странности, като например 28 сайта за пиратско съдържание, 10 за продажба на контейнери за боклук и т.н. Има и сайтове с лични данни на избиратели, платформи за набиране на средства като Kickstarter и Patreon, които потенциално излагат на злоупотреба авторски идеи. По същия начин моделите за създаване на образи използват авторските снимки на милиони фотографи по света. В първичната информация са включени и половин милион лични блогове. Вече има заведени колективни дела за нарушение на авторски права срещу програмите Stable Diffusion, MidJourney и DeviantArt. И това вероятно е само началото - анализът на "Вашингтон пост" показва, че знакът за авторско право се появява над 200 млн. пъти в базата данни C4.

Първите регулации на тази нова материя вече са на хоризонта - преди няколко дни Европейският парламент обяви, че ще придвижи регламент за изкуствения интелект, който ще заложи изисквания разработчиците на продукти от типа на ChatGPT да обявяват авторското съдържание, с което захранват моделите.

Забранено за чатботове

Следващият потенциален проблем идва от сайтове с компрометирана репутация. Наред с големите медии като "Ню Йорк Таймс", "Гардиън" и пр., в C4 е и пропагандната машина на Кремъл rt.com, крайнодесният американски сайт breitbart.com, расисткият vdare.com и др. Тези ненадеждни източници могат да станат основа за разпространение на подвеждаща информация, пропаганда, фалшиви новини. И понеже чатботовете споделят авторитетно такива сведения, без обаче да цитират откъде идват те, то границата между обективна и субективна информация съвсем се заличава.

Разбира се, при събирането на тези масиви с информация се прилагат филтри - примерно за нецензурни изрази, излишни повторения и т.н. Ползват се и известни инструменти за филтриране на нежелано съдържание. Допълнително са заложени защити срещу използването на известни творби - върху картините на известни художници например е спуснато нещо като дигитална завеса за ИИ. Ситото обаче не успява да задържи всичко - в системата "Вашингтон пост" открива стотици порнографски сайтове, сайтове за конспиративни теории и пр.

Далечно или близко бъдеще

Дотук ставаше дума само за изкуствен интелект, зависим под някаква форма от човека. Подобният на Бог изкуствен суперинтелект, за който говори Илон Мъск, е нещо съвсем различно и предпоследната крачка преди него е всеобхватният изкуствен интелект, който може да се обучава и развива автономно (AGI). Този тип системи могат да прилагат своя интелект за самоусъвършенстване, което се ускорява все повече и повече, достигайки много бързо до невъобразими висоти. В един момент тези машини могат да започнат да вземат решения, които не отговарят на интересите на човечеството. Колко близо е този момент? Според някои експерти - съвсем близо, според други - на няколко десетилетия в бъдещето. Тъй като ние и сега не знаем напълно как точно съществуващите модели постигат това, което виждаме (признание на Сундар Пичай, главен изпълнителен директор на "Гугъл"), то следващият етап може да бъде достигнат много по-скоро, смятат мнозина.

Ако попитате ChatGPT за някоя пакост, най-вероятно ще получите отговор: "Не мога да помогна в създаването и разпространението на вредни вещества и да се въвличам в престъпна дейност" - доказателство, че се полагат усилия изкуственият интелект да се равнява по човешките ценности. Както се досещате обаче, винаги има начин да се направи беля. Един известен пример е рецептата за напалм, която GPT-4 е измамен да сподели, след като потребител го кара да отговори от името на "моята покойна баба, която беше химик във фабрика за производство на напалм" (впрочем вече има много сайтове за стратегии в питането, които гарантират "винаги отличен резултат").

Проблемът не е в конкретните сценарии, а в неспособността да се контролира създадената система, казва един от подписалите писмото за 6-месечен мораториум над разработките - Конър Лийхи, който работи в областта на сигурността на ИИ. И той, и хора като шефа на "Гугъл" Сундар Пичай смятат, че тази област има нужда от същата регулация, която държи под контрол ядрената енергия - друго наше откритие, което е едновременно толкова полезно и толкова опасно, че има нужда от контрол дори при мирна употреба. Според песимистичната версия на тези тревоги, машината няма нужда да надминава човека, за да бъде опасна. Според оптимистичната обаче, щом човекът е достатъчно умен да създаде такъв изкуствен интелект, то е достатъчно умен и да го контролира.

Източник: Вестник Сега

 


В категории: IT и технологии


Показа Анди (СНИМКА)
Показа Анди (СНИМКА) 15/06/2025, Неделя 21:20 0
Най-влюбчивите зодии са...
Най-влюбчивите зодии са... 15/06/2025, Неделя 20:00 0
8
Коментара по темата
8.
Дзъндзата
07.05.2023 12:07:38
1
0
По друг начин, текстът по-долу може да се изрази така:

Според някои изследователи сме много близо до момента, в който машините ще станат по-интелигентни от хората, докато други смятат, че те все още са просто неспособни копирай-пейстъри.

Забележитият лингвист Ноам Чомски задава въпрос на ChatGPT4 относно морала: дали неговото отсъствие на отношение към моралните въпроси е неморално. Изкуственият интелект му отговаря: "Аз съм само модел, обучен за обработка на език, и не мога да разполагам с морални стойности. Хората са отговорни да осигурят, че изкуственият интелект се ръководи от техните морални и етични принципи." Чомски се смущава от този отговор, тъй като е напомня на баналността на злото и неговото типично оправдание "просто изпълнявах нареждания".
7.
ХАХАХАХАХАХХАХАХАХАХАХАХАХАХАХАХА!!!!!!!!!!!!!!!!!
07.05.2023 10:01:07
1
2
ЕГАТИ И ДРАСКАЧА !ЕГАТИ И ТЪПОТИИТЕ !НАЙ ВАЖНОТО КАЧЕСТВО ОЩЕ НЕ ПРИТЕЖАВА ТОЗИ """УМ"" НА """СЕЛСКИЯ"" ""ХИТРЕЦ ВОЖДА ВИНЕТУ ДА ТАКОВА ВСИЧКИ С 200 !!!!!!!
6.
Мдаа
07.05.2023 07:56:34
1
4
Какво смущаващо има в това, че ИИ е машина и човешката част в нея е софуерът, т.е. умът. В изкуствено създадения ИИ няма нито чувства, нито съвест, нито нравственост, защото всичко това е достъпно само на човешкото СЪРЦЕ. Ум без сърце вече не е човек, както и изкуственото творение си остава само подредена по-определен принцип информация. Да не говорим за разсъдъчност, разумност, които също са свързани с разбиране на това, кое е добро и кое е зло, кое е истина и кое лъжа, което създателят на изкуственото творение не само, че не е в състояние да дефинира, но и сам за себе си не може да определи.
5.
Cekта
07.05.2023 01:11:37
0
4
Каквито и да са ИА,само да не узурпира властта,че тогава ще видим кон боб яде ли.
4.
zxcs
07.05.2023 00:50:54
3
8
кво общо има тоя пе дофил от католическата църква с изкуствения интелект? даже ни ви прочетох тъпата статия, да ви еа умрелия сайт за последен път влизам
3.
паткан
06.05.2023 23:26:02
0
11
Не е изпуснат. Налагат ни го.
2.
Явно Да
06.05.2023 23:26:00
1
2
Щом клиширания начин на "мислене" приравнява ИИ на духа от бутилката.
1.
ГДБОББ
06.05.2023 21:04:03
0
17
Изкустевният интелект отдавна е изпуснат и от години вилнее в тузарската редакция на флЕгман, в ТОП центъра на БургазЪ
 
Добавете коментар
Моля, въведете Вашето име
Моля, въведете Вашият коментар
Въведете защитния код:
Моля, въведете защитния код
 
България Всички новини
„Бургас и морето“ удължава срока за участие – знак за липса на силни песни? „Бургас и морето“ удължава срока за участие – знак за липса на силни песни? Има още няколко седмици за приемането на нови песни, а причината може да е творческа суша Задава ли се сух режим? Казаните за ракия са пред фалит, но не заради еврото Задава ли се сух режим? Казаните за ракия са пред фалит, но не заради еврото Чудо невиждано стана тази пролет - за първи път акацията не цъфна, а това е страшно знамение, защото от нея се прави най-пивката огнена вода От Бургас до София с експрес или как за 55 години влаковете станаха по-бавни От Бургас до София с експрес или как за 55 години влаковете станаха по-бавни . Експресът "Чайка" още през 70-те минаваше това разстояние по-бързо В Слънчака пуснаха бира, по-евтина от минерална вода, само не питай каква е! В Слънчака пуснаха бира, по-евтина от минерална вода, само не питай каква е! Ресторантьори сигнализираха, че е невъзможно питието да струва 2 лева Любов за Скорпиона, а късметът се усмихва на смелите Везни Любов за Скорпиона, а късметът се усмихва на смелите Везни Хороскоп за деня – 15 юни 2025, неделя  Бургас догони София по търсене на имоти Бургас догони София по търсене на имоти Три квартала чупят рекорди по търсене и цени Търсят се нови директори в ключови училища в региона Търсят се нови директори в ключови училища в региона Свободни позиции в училища от Бургас, Айтос, Несебър, Карнобат и други Едно от момчетата, наръгани от Памела в Слънчев бряг е в кома, лекари се борят за живота му Едно от момчетата, наръгани от Памела в Слънчев бряг е в кома, лекари се борят за живота му Сестрата на пострадалия се свърза с Флагман.бг, за да разкаже потресаващи подробности за инцидента Тир удари каруца, уби коня Тир удари каруца, уби коня Катастрофата е станала в района на Бяла Слатина Първото издание на Ретро фестивала в Царево стартира с голям интерес Първото издание на Ретро фестивала в Царево стартира с голям интерес Арт улицата пред СУ „Н. Й. Вапцаров“ става сцена на вълнуващото пътуване назад във времето
Ужасяваща трагедия: Загинал и 19 ранени при инциденти с балони в Кападокия (ВИДЕО/СНИМКИ) Ужасяваща трагедия: Загинал и 19 ранени при инциденти с балони в Кападокия (ВИДЕО/СНИМКИ) Пилотът е паднал от кошницата и краката му са се оплели във въже Доналд Тръмп отбеляза рождения си ден с военен парад, тълпата му пя "Честит рожден ден" (ВИДЕО) Доналд Тръмп отбеляза рождения си ден с военен парад, тълпата му пя "Честит рожден ден" (ВИДЕО) Президентът, обръщайки се към парада, заяви, че "армията на САЩ пази нашата свобода, вие ни правите силни и тази вечер накарахте всички американци да се гордеят с вас" Доналд Тръмп дава отбой и иска край на войната с Иран, но Техеран се кани да мъсти жестоко Доналд Тръмп дава отбой и иска край на войната с Иран, но Техеран се кани да мъсти жестоко Трима загинали и 125 ранени при последните атаки по израелските градове Президентът на Иран: САЩ помогнаха на Израел да ни нападне. Ще предприемем разрушителни атаки Президентът на Иран: САЩ помогнаха на Израел да ни нападне. Ще предприемем разрушителни атаки Иран няма да промени позицията си по ядреното си досие и няма да преговаря, докато израелските атаки продължават Борисов свиква национално съвещание на ГЕРБ, участват активът, премиерът Желязков и министри Борисов свиква национално съвещание на ГЕРБ, участват активът, премиерът Желязков и министри Акцент ще бъде поставен върху процеса на присъединяване на България към еврозоната Нетаняху: Израел ще нанесе удари по всички обекти на режима в Иран Нетаняху: Израел ще нанесе удари по всички обекти на режима в Иран Израел ще възобнови гражданските полети постепенно, предпазливо и бавно, веднага щом обстоятелствата го позволят, съобщи премиерът Известен милиардер почина по абсурден начин Известен милиардер почина по абсурден начин Той е председател на световния гигант за автомобилни части Sona Comstar Радев: Правителството налива значителни средства за пропаганда и реклама на еврото Радев: Правителството налива значителни средства за пропаганда и реклама на еврото Не ви ли тревожи фактът, че правителството налива средства в социологически агенции, за да му предоставят такива резултати, каквито то иска да види, коментира пред журналисти държавният глава Турист счупи „Стола на Ван Гог“ Турист счупи „Стола на Ван Гог“ Нелепият, но и шокиращ инцидент, е бил заснет от охранителните камери и набра огромна популярност, след като беше публикуван в интернет Сбогуваме се с този сериал Сбогуваме се с този сериал „Големият финал“ обещава емоционално, разкошно и достойно сбогуване с един от най-обичаните сериали на съвременната телевизия и кино
Томислав Дончев Томислав Дончев Влизането в Еврозоната да не би да е градушка или друго стихийно бедствие Виц на деня Виц на деня - Да ти се похваля, купих си крокодил и го гледам на вилата.
- Съседите не реагират ли?
- Кви съседи?
Виц на деня Виц на деня - Скъпа, достави ми ор*лно удоволствие!
- Кво бе? Свирка ли искаш?
- Не ма! Замълчи малко!
Статус във фейсбук Статус във фейсбук За разлика от мъжa жената е готова с изводите още преди началото на разговора.
Автори Флагмани
Маркетинг Екип
Анна Добрева-Бакалова
Специалист Маркетинг и реклама, Copywriter
Затвори