×
Практично Култура Здраве Политика Общини Общество Лайфстайл Войната в Украйна Спорт Разследване Бизнес ЮГ

Управител:
Веселин Василев, email: [email protected]

Главен редактор:
Катя Касабова, email: [email protected]

Коментарите под статиите се въвеждат от читателите и редакцията не носи отговорност за тях! Ако откриете обиден за вас коментар, моля сигнализирайте ни!

Категории
Вашият сигнал Връзка с Флагман Flagman в Telegram
НА ЖИВО
Най-нови Най-четени Най-коментирани

Опасен ум: Изпускаме ли изкуствения интелект от бутилката?


Опасен ум: Изпускаме ли изкуствения интелект от бутилката?
Папата изглежда страхотно, стига да не се загледате в детайлите на фалшивата снимка - MidJourney все още не се оправя с човешките ръце
06 Май 2023, Събота, 21:00 ч.
Автор: Флагман

Според някои сме на крачка машините да станат по-умни от човека, но според други те все още са само некадърни преписвачи

Когато известният лингвист Ноам Чомски пита ChatGPT4 дали липсата на отношение към морала у него е неморална, изкуственият интелект отвръща: "Аз съм просто модел за машинно обучение и не мога да имам морални убеждения. Отговорност на хората е да гарантират, че изкуственият интелект се подчинява на техните морални и етични принципи". Чомски намира този отговор за дълбоко смущаващ, защото наподобява баналността на злото и неговото класическо оправдание "Аз само изпълнявах нареждания".

Чомски е част от група експерти, които предупреждават, че сме на прага на опасен скок в сложните си отношения с машините. Непосредственият повод е пробивът с няколко изненадващо успешни модела на изкуствен интелект, които изглежда преодоляват една бариера, смятана досега за недостижима - човешкия език. Някои от тези модели "разговарят" и пишат, други превръщат текстово описание в образ, трети даже и във видео. ChatGPT4 и компания пишат дисертации, вестникарски статии, стихотворения, даже вече продават книги в "Амазон". Те генерират и правдоподобни образи - потенциалът им да променят цели сектори от индустрията е огромен. Защо тогава настроенията сега се разминават с тези отпреди 36 г., когато суперкомпютърът на IBM Deep Blue ("Дълбокото синьо") за пръв път успя да бие Гари Каспаров на шах?

Тревогите само започват оттам колко трудно става да разпознаваме фейк от факт в тази нова ера. Отвъд познатите рискове за пръв път изглеждаме близо и до научнофантастичния момент, когато машината ще стане по-умна от човека. Даже Илон Мъск смята, че изкуственият интелект може да унищожи нашата цивилизация. Тази седмица пионерът на изкуствения интелект Джефри Хинтън обяви, че напуска "Гугъл", за да може свободно да говори за опасностите от новите модели. Хинтън, който през 2012 г. създава невронна мрежа (изчислителен модел за обработка на информация, наподобяващ човешкия мозък и ключова част от ИИ), отчасти съжалява, че е допринесъл за развитието на тези технологии. Според него, те пораждат страшни опасности. "Тези модели са в състояние да произвеждат огромно количество текст и могат да бъдат впрегнати за манипулации на избирателите", дава един пример Хинтън. Представете си, обяснява той, че имате 10 000 души и всеки път, когато един от тях научи нещо ново, всички останали също автоматично го разбират. Ето така тези чатботове знаят много повече от който и да е отделен човек.

Преди месец над 1000 души, които по един или друг начин стоят в първите редици на технологичната индустрия, призоваха с отворено писмо да се преустановят разработките на "гигантски" изкуствен интелект за поне шест месеца, за да може междувременно да се изследват възможностите и рисковете на системи от типа на GPT-4 и да се заложат в тях защитни механизми. "В последните месеци наблюдаваме една излизаща от контрол надпревара между лабораториите за изкуствен интелект, които се надбягват да създадат все по-мощни дигитални умове, които никой - дори техните създатели - не може да разбере, прогнозира или контролира по надежден начин", се посочва в писмото. Авторите му настояват подобни системи да се разработват само когато сме сигурни, че тяхното въздействие ще бъде позитивно и рисковете - управляеми.

В последните седмици все по-често слушаме, че заплахите от ИИ засягат съществуването на човечеството, но според мнозина преди този холивудски сюжет да ни сполети, пред нас има вече реални проблеми - заличаването на границата между истина и изкуствено създаден образ или текст, експлоатацията на лични данни и авторски права, академичните злоупотреби.

От текст към образ - носи ли папата "Баленсиага"

Видимият напредък в създаването на образи в последните месеци е една от причините толкова често да говорим за изкуствен интелект. Последните версии на Midjourney все още не правят разлика между сълзотворен газ и мляко, но въпреки това са удивително достоверни. В края на март тази програма създаде може би първия свръхпопулярен образ на ИИ - папата в бяла пухенка на "Баленсиага". "Абсолютно невероятен напредък! Версия 5 прави неща, които компютърната графика не може да постигне вече десетилетия", възкликна за този инструмент един потребител. Елиът Хигинс, основател на "Белингкат", на игра направи кадри как полицията отнася яростно съпротивляващ се Тръмп към ареста... докато чака същинския арест на бившия американски президент. Вече даже има програма за превръщане на текст във видео - Modelscope text2video, макар че съдейки по експериментите с  "Уил Смит яде спагети", тук има какво още да се желае. Има и ИИ, който превръща 2D в 3D - нещо, което преди е изисквало време и няколко програми, сега става за нула време с "Айфон".

С играта обаче често става плачка. Тази седмица се оказа, че "Амнести Интернешънъл" е пуснала несъществуващи снимки на реално съществуващи протести от 2021 г. в Колумбия. Организацията е известен бранител на истината, а причината е благородна - да не се излагат на опасност протестиращите, чиято самоличност лесно може да бъде установена от полицията по снимките. Постъпката обаче предизвика вълна от възмущение, защото налива вода в мелницата на конспиративните теории и руши доверието към институцията, отглеждано с години. Впрочем кадрите изглеждат реалистични само на пръв поглед. При по-внимателен преглед се вижда, че цветовете на колумбийското знаме са тези, но не в този ред, а униформата на полицаите не отговаря на периода.

Познай кой говори

Образите са един от няколко проблема с новите усъвършенствани версии на ИИ. Той вече може доста сполучливо да наподобява конкретни човешки гласове. Разследване на австралийската редакция на "Гардиън" например установи, че машината имитира човешки глас толкова успешно, че успява да заблуди система за гласова идентификация, ползвана от австралийското правителство. На този фон по-конвенционалните страхове, че стотици хора от филмовите дублажи например ще останат без работа, изглеждат като бял кахър.

От робота за роботи

Изкуственият интелект вече е свръхпродуктивен автор и на книги - в "Амазон" е пълно със заглавия, които претендират да са излезли не от човешки ум. Някои от тях, естествено, са за роботи. "Историите са добре написани, забавни, с правилна пропорция от екшън, приключения и хумор. Героите са добре развити и печелят симпатиите", гласи едно ревю от читател. "Яко е да живеем във време, когато изкуственият интелект още не ни се е ядосал!", пише потребител на друга книга от ИИ, този път детска.

Плагиатство без граници

Извън фалшивите новини, внезапно проговорилите модели на изкуствен интелект създават цял набор от други проблеми на академичния свят и въобще образованието. Много е вероятно да виждаме последните дни на домашното каквото го познаваме. Натам вървят и курсовите работи, дипломните работи, дисертациите и пр., като предстои да видим какво ще остане от академичността, когато всички започнат да разчитат на ИИ. Проф. Итън Молик от Университета на Пенсилвания например накарал GPT-4 да направи сурова, но справедлива рецензия на една стара научна публикация, при това от гледната точка на икономически социолог. Изкуственият интелект му върнал съвсем прилична оценка, която до голяма степен се покривала с бележките на истинските му колеги. "Не съм сигурен какво да мисля по този въпрос като академик", признава проф. Молик.

Друг потенциален проблем, на който се натъква в истинския свят професор от университета в Тилбург, Нидерландия. Една негова научна публикация наскоро била отхвърлена от рецензент, който вероятно е ползвал ИИ, тъй като в препоръката са изброени несъществуващи източници. Проверка с GPT-2 (по-стара версия на популярния модел) потвърждава, че рецензията е написана от ИИ. Фалшивите източници и библиографии се оказват често срещан дефект - на въпрос коя е най-цитираната икономическа публикация на всички времена, ChatGPT дава напълно измислена статия. За да разберем защо, трябва да видим как работи изкуственият интелект.

 

Революция или нескопосан преписвач

Всичко, което генерира изкуственият интелект, вече е създадено от човека. Неговите снимки и видеа например са съшити от милиони фотографии, направени от реално съществуващи хора. Текстовете му се захранват от стотици хиляди сайтове. Тези текстове и образи се преработват през невронни мрежи, които се учат да правят асоциации между специфични и дълбоко нюансирани особености - форми, цветове, композиции, и определени думи и фрази, с които е тагнат образът. След това тези качества се наслагват едно върху друго, за да произведат нови аранжировки на форма, цвят и композиция.

ChatGPT пък стъпва върху езиков модел, който разпределя вероятности върху последователност от думи. Най-общо казано, ходът на мисълта му е следният: Като се има предвид началото на изречението, трябва да отгатна как е най-вероятно то да продължи. Един елементарен пример - ако му зададем "Зеленчуци който не яде...", ИИ ще прегледа огромната си библиотека и ще излезе с най-вероятното продължение - "той голям не ще да порасте". Разбира се, ChatGPT е много по-софистициран от това - той "предсказва" и началото на изречението, и може да напише цял смислен документ. Попитан коя е най-цитираната икономическа статия в историята, моделът може за секунди да установи, че в огромната си част тези статии съдържат думите "икономика" и "теория". Третата по вероятност дума е история. Като прибавим статистическия факт, че тези статии имат обикновено двама автори, нашата несъществуваща статия е готова.

Друг пример - тъй като вече има програми за проследяване на лична информация в тези данни, една художничка от САЩ открива в чатботовете своя снимка, направена при преглед при лекар и уж защитена от всякакви външни очи. Иначе казано, както пише в един обширен материал на "Гардиън" по темата, когато се радваме на розовата плът на прасенцето, нарисувано в стил "Екзюпери", не знаем дали тя не е крадена от плътта на някой пациент с рак например.

Какво чете ИИ

Вижда се от тези опростени примери, че първичната хранителна среда на ИИ е един твърде любопитен въпрос. "Чатботовете не могат да мислят като хора - те не разбират какво казват. Те само имитират човешката реч, защото изкуственият интелект, който ги управлява, е погълнал огромно количество текст, повечето събран от интернет", започва едно мащабно разследване на "Вашингтон Пост" за първоизточниците на тази информационна суровина. Те се укриват старателно от технологичните компании, но вестникът успява да надникне в една от тези "черни кутии" - базата данни на "Гугъл" C4, в която е сканирано съдържанието на 15 млн. сайта и която се ползва за обучение на няколко от известните езикови модели като T5 на "Гугъл" и LLaMA на "Фейсбук". (OpenAI, която прави ChatGPT, не разкрива какви данни ползва за обучение на модела си).

Тази база данни се доминира от обичайните източници - медии, сайтове за кино и музика, софтуер, медицина и пр. Трите най-големи са сайтът на "Гугъл" за патентите, "Уикипедия" и дигиталната библиотека scribd.com. В резултатите обаче на предни позиции има и някои странности, като например 28 сайта за пиратско съдържание, 10 за продажба на контейнери за боклук и т.н. Има и сайтове с лични данни на избиратели, платформи за набиране на средства като Kickstarter и Patreon, които потенциално излагат на злоупотреба авторски идеи. По същия начин моделите за създаване на образи използват авторските снимки на милиони фотографи по света. В първичната информация са включени и половин милион лични блогове. Вече има заведени колективни дела за нарушение на авторски права срещу програмите Stable Diffusion, MidJourney и DeviantArt. И това вероятно е само началото - анализът на "Вашингтон пост" показва, че знакът за авторско право се появява над 200 млн. пъти в базата данни C4.

Първите регулации на тази нова материя вече са на хоризонта - преди няколко дни Европейският парламент обяви, че ще придвижи регламент за изкуствения интелект, който ще заложи изисквания разработчиците на продукти от типа на ChatGPT да обявяват авторското съдържание, с което захранват моделите.

Забранено за чатботове

Следващият потенциален проблем идва от сайтове с компрометирана репутация. Наред с големите медии като "Ню Йорк Таймс", "Гардиън" и пр., в C4 е и пропагандната машина на Кремъл rt.com, крайнодесният американски сайт breitbart.com, расисткият vdare.com и др. Тези ненадеждни източници могат да станат основа за разпространение на подвеждаща информация, пропаганда, фалшиви новини. И понеже чатботовете споделят авторитетно такива сведения, без обаче да цитират откъде идват те, то границата между обективна и субективна информация съвсем се заличава.

Разбира се, при събирането на тези масиви с информация се прилагат филтри - примерно за нецензурни изрази, излишни повторения и т.н. Ползват се и известни инструменти за филтриране на нежелано съдържание. Допълнително са заложени защити срещу използването на известни творби - върху картините на известни художници например е спуснато нещо като дигитална завеса за ИИ. Ситото обаче не успява да задържи всичко - в системата "Вашингтон пост" открива стотици порнографски сайтове, сайтове за конспиративни теории и пр.

Далечно или близко бъдеще

Дотук ставаше дума само за изкуствен интелект, зависим под някаква форма от човека. Подобният на Бог изкуствен суперинтелект, за който говори Илон Мъск, е нещо съвсем различно и предпоследната крачка преди него е всеобхватният изкуствен интелект, който може да се обучава и развива автономно (AGI). Този тип системи могат да прилагат своя интелект за самоусъвършенстване, което се ускорява все повече и повече, достигайки много бързо до невъобразими висоти. В един момент тези машини могат да започнат да вземат решения, които не отговарят на интересите на човечеството. Колко близо е този момент? Според някои експерти - съвсем близо, според други - на няколко десетилетия в бъдещето. Тъй като ние и сега не знаем напълно как точно съществуващите модели постигат това, което виждаме (признание на Сундар Пичай, главен изпълнителен директор на "Гугъл"), то следващият етап може да бъде достигнат много по-скоро, смятат мнозина.

Ако попитате ChatGPT за някоя пакост, най-вероятно ще получите отговор: "Не мога да помогна в създаването и разпространението на вредни вещества и да се въвличам в престъпна дейност" - доказателство, че се полагат усилия изкуственият интелект да се равнява по човешките ценности. Както се досещате обаче, винаги има начин да се направи беля. Един известен пример е рецептата за напалм, която GPT-4 е измамен да сподели, след като потребител го кара да отговори от името на "моята покойна баба, която беше химик във фабрика за производство на напалм" (впрочем вече има много сайтове за стратегии в питането, които гарантират "винаги отличен резултат").

Проблемът не е в конкретните сценарии, а в неспособността да се контролира създадената система, казва един от подписалите писмото за 6-месечен мораториум над разработките - Конър Лийхи, който работи в областта на сигурността на ИИ. И той, и хора като шефа на "Гугъл" Сундар Пичай смятат, че тази област има нужда от същата регулация, която държи под контрол ядрената енергия - друго наше откритие, което е едновременно толкова полезно и толкова опасно, че има нужда от контрол дори при мирна употреба. Според песимистичната версия на тези тревоги, машината няма нужда да надминава човека, за да бъде опасна. Според оптимистичната обаче, щом човекът е достатъчно умен да създаде такъв изкуствен интелект, то е достатъчно умен и да го контролира.

Източник: Вестник Сега

 


В категории: IT и технологии


Флагман.БГ Автор
Флагман.БГ
8
Коментара
Флагман.БГ Трите основни стълба на успешната връзка Трите основни стълба на успешната връзка 29/03/2026, Неделя 22:00 0
Тервел ИЛИЕВ Как да почистите микровълновата за минути Как да почистите микровълновата за минути 29/03/2026, Неделя 20:18 0
Тервел ИЛИЕВ Най-добрата зодия за приятелство Най-добрата зодия за приятелство 29/03/2026, Неделя 19:40 0
Флагман.БГ Топ 5 храни за здрава кожа Топ 5 храни за здрава кожа 29/03/2026, Неделя 19:00 0
Тервел ИЛИЕВ Най-силната зодия в трудни ситуации Най-силната зодия в трудни ситуации 29/03/2026, Неделя 18:40 0
8
Коментара по темата
8.
Дзъндзата
07.05.2023 12:07:38
1
0
По друг начин, текстът по-долу може да се изрази така:

Според някои изследователи сме много близо до момента, в който машините ще станат по-интелигентни от хората, докато други смятат, че те все още са просто неспособни копирай-пейстъри.

Забележитият лингвист Ноам Чомски задава въпрос на ChatGPT4 относно морала: дали неговото отсъствие на отношение към моралните въпроси е неморално. Изкуственият интелект му отговаря: "Аз съм само модел, обучен за обработка на език, и не мога да разполагам с морални стойности. Хората са отговорни да осигурят, че изкуственият интелект се ръководи от техните морални и етични принципи." Чомски се смущава от този отговор, тъй като е напомня на баналността на злото и неговото типично оправдание "просто изпълнявах нареждания".
7.
ХАХАХАХАХАХХАХАХАХАХАХАХАХАХАХАХА!!!!!!!!!!!!!!!!!
07.05.2023 10:01:07
1
2
ЕГАТИ И ДРАСКАЧА !ЕГАТИ И ТЪПОТИИТЕ !НАЙ ВАЖНОТО КАЧЕСТВО ОЩЕ НЕ ПРИТЕЖАВА ТОЗИ """УМ"" НА """СЕЛСКИЯ"" ""ХИТРЕЦ ВОЖДА ВИНЕТУ ДА ТАКОВА ВСИЧКИ С 200 !!!!!!!
6.
Мдаа
07.05.2023 07:56:34
1
4
Какво смущаващо има в това, че ИИ е машина и човешката част в нея е софуерът, т.е. умът. В изкуствено създадения ИИ няма нито чувства, нито съвест, нито нравственост, защото всичко това е достъпно само на човешкото СЪРЦЕ. Ум без сърце вече не е човек, както и изкуственото творение си остава само подредена по-определен принцип информация. Да не говорим за разсъдъчност, разумност, които също са свързани с разбиране на това, кое е добро и кое е зло, кое е истина и кое лъжа, което създателят на изкуственото творение не само, че не е в състояние да дефинира, но и сам за себе си не може да определи.
5.
Cekта
07.05.2023 01:11:37
0
4
Каквито и да са ИА,само да не узурпира властта,че тогава ще видим кон боб яде ли.
4.
zxcs
07.05.2023 00:50:54
3
8
кво общо има тоя пе дофил от католическата църква с изкуствения интелект? даже ни ви прочетох тъпата статия, да ви еа умрелия сайт за последен път влизам
3.
паткан
06.05.2023 23:26:02
0
11
Не е изпуснат. Налагат ни го.
2.
Явно Да
06.05.2023 23:26:00
1
2
Щом клиширания начин на "мислене" приравнява ИИ на духа от бутилката.
1.
ГДБОББ
06.05.2023 21:04:03
0
17
Изкустевният интелект отдавна е изпуснат и от години вилнее в тузарската редакция на флЕгман, в ТОП центъра на БургазЪ
 
Добавете коментар
Моля, въведете Вашето име
Моля, въведете Вашият коментар
Въведете защитния код:
Моля, въведете защитния код
 
България Всички новини
„Монамур, вкусен ли е тоя руски шнур“: Лора Крумова отговори на Костадинов „Монамур, вкусен ли е тоя руски шнур“: Лора Крумова отговори на Костадинов Водещата от „Нова“ пусна стихче от старо парче на Ицо Хазарта, после го изтри Зоро от Оризаре е основният заподозрян за смрътта на Стефан Поляка в Слънчев бряг Зоро от Оризаре е основният заподозрян за смрътта на Стефан Поляка в Слънчев бряг 24-часовата полицейска мярка на групата изтича утре сутринта и вероятно част от тях ще бъдат освободени, но Зоро със сигурност ще остане в ареста поне за 72 часа Крум Зарков: Държавата трябва незабавно да се намеси, за да регулира цената на горивата Крум Зарков: Държавата трябва незабавно да се намеси, за да регулира цената на горивата Само 35-45%  от цената на литър гориво по бензиностациите се определя от суровината, докато останалите над 50% са в голяма степен ДДС и акциз. Ето тук държавата може да се намеси, категоричен е лидерът на БСП Как се стигна до създаването на едно чудовище Как се стигна до създаването на едно чудовище Хронология на престъпленията на Васил Михайлов "Черноморец 1919" показа, че гради сериозен отбор, спря лидера "Дунав" "Черноморец 1919" показа, че гради сериозен отбор, спря лидера "Дунав" Ако съставът се запази за следващия сезон - акулите ще са претенденти за първото място  Как от площада в Карнобат тръгна войната между Румен Радев и ПП-ДБ (ВИДЕО) Как от площада в Карнобат тръгна войната между Румен Радев и ПП-ДБ (ВИДЕО) Асен Василев нарече лидерът на "Прогресивна България" "страхлив лицемер" и замеси съпругата му Деси Радева  Телешки салам с едва 3 % месо разпали страстите в нета Телешки салам с едва 3 % месо разпали страстите в нета Сабриев иронично допълва, че саламът може да се нарече "телешки“ само заради металната тел, с която е завързан Готовите проекти на ГЕРБ за Бургаска област трябва да бъдат изпълнени! Готовите проекти на ГЕРБ за Бургаска област трябва да бъдат изпълнени! Няма да отстъпя и на милиметър, ако не получат финансиране, дори и да сме в опозиция, казва един от най-активните депутати на ГЕРБ Станислав Губеров, който отново е в листата за 52-ото НС Над 1 млрд. евро са спечелили българите от хазарт, но са заложили 2 млрд. евро Над 1 млрд. евро са спечелили българите от хазарт, но са заложили 2 млрд. евро Дадените пари за хазартни игри нарастват с около 40 на сто през миналата година, и то при положение, че през предходната 2024 г. имаше увеличение с около 8 на сто спрямо 2023 г. Близо 47 500 дружества декларираха данъците си от старта на кампанията Близо 47 500 дружества декларираха данъците си от старта на кампанията От тях близо 4 000 са подадените декларации от дружества само за Бургаска област
Българи пазаруват в Гърция, както гърци у нас преди години Българи пазаруват в Гърция, както гърци у нас преди години По думите на пътуващите, разликите в цените са съществени София по-скъпа от Берлин и Атина: Какви са цените на основните храни? София по-скъпа от Берлин и Атина: Какви са цените на основните храни? Млечните продукти и захарта повишават разходите в София Студент от Бургас осъди прокуратурата заради фалшиво положителен тест за амфетамини Студент от Бургас осъди прокуратурата заради фалшиво положителен тест за амфетамини Ще трябва да му платят 1500 евро обезщетение  Как ще изглежда светът при $200 за барел Как ще изглежда светът при $200 за барел Opмyзĸият пpoтoĸ, пpeз ĸoйтo минaвa eднa пeтa oт cвeтoвния пeтpoл, eднa чeтвъpт oт гaзa и eднa тpeтa oт тopoвeтe, e дe фaĸтo блoĸиpaн Учителка излязла в 16-годишен болничен и работила като природолечител Учителка излязла в 16-годишен болничен и работила като природолечител Подозренията са, че тя се е преструвала на неработоспособна Как червеното вино влияе на усмивката Как червеното вино влияе на усмивката Червеното вино е приятел на човека, а и на оралното здраве. То съдържа активни съставки и антиоксиданти, които имат благоприятно въздействие върху зъбите и устната кухина на човека Европейска директива ще оскъпи пратките от Тему Европейска директива ще оскъпи пратките от Тему Новата мярка ще се добави към вече въведената такса от 3 евро на тип артикул, която се събира от юли за малки пратки със стойност под 150 евро, основно идващи от Китай Руса бизнесдама, зам.-председател на Общински съвет, си купи хотел за 4 млн. евро Руса бизнесдама, зам.-председател на Общински съвет, си купи хотел за 4 млн. евро Имотът беше обявен на търг за 5,6 млн. евро от частен съдебен изпълнител през юли м.г., но тогава не се стигна до продажба Дубай гони хиляди иранци, конфискува им имоти и сметки за 530 млрд. долара Дубай гони хиляди иранци, конфискува им имоти и сметки за 530 млрд. долара Властите в ОАЕ са действали едностранно и без официални обяснения И Тервел Пулев ще бъде част от Max Fight 64 И Тервел Пулев ще бъде част от Max Fight 64 На ринга той ще изведе своя възпитаник Тома Великов, който представлява боксов клуб „Венко Пулев“.
Станка Златева, председател на БФБ Станка Златева, председател на БФБ Вкарахте ме в цирк Виц на деня Виц на деня Тате, мама поръча да ти кажа тази вечер да ходиш из хола по чорапи, без чехли.
- Защо?
- Изгубила някаква игла и иска да я намериш.
Виц на деня Виц на деня Портиер в женско студентско общежитие.
- При коя отивате, младежо?
- Не знам, Вие коя ще ми препоръчате?
Статус във фейсбук Статус във фейсбук Човек с добри мисли никога не може да бъде грозен.
Автори Флагмани
Маркетинг Екип
Анна Добрева-Бакалова
Специалист Маркетинг и реклама, Copywriter
Затвори