×
Здраве Политика Общини Общество Лайфстайл Войната в Украйна Спорт Разследване Бизнес ЮГ

Управител:
Веселин Василев, email: [email protected]

Главен редактор:
Катя Касабова, email: [email protected]

Коментарите под статиите се въвеждат от читателите и редакцията не носи отговорност за тях! Ако откриете обиден за вас коментар, моля сигнализирайте ни!

Категории
Вашият сигнал Връзка с Флагман Flagman в Telegram
Накратко
  • Оранжев код за обилни валежи в 5 области в страната
  • Силна геомагнитна буря удря България днес и утре
  • Прокуратурата разследва случая с прегазеното куче Мая
  • От днес започва втора част на акция "Зима"
  • Русия предоставя технологии на Северна Корея и ракети на Венецуела
  • България разполага с бензин за 35 дни и дизел за над 50 дни
  • Израелският парламент обсъжда смъртно наказание за терористи
НА ЖИВО
Най-нови Най-четени Най-коментирани

Опасен ум: Изпускаме ли изкуствения интелект от бутилката?


Опасен ум: Изпускаме ли изкуствения интелект от бутилката?
Папата изглежда страхотно, стига да не се загледате в детайлите на фалшивата снимка - MidJourney все още не се оправя с човешките ръце
06 Май 2023, Събота, 21:00 ч.
Автор: Флагман

Според някои сме на крачка машините да станат по-умни от човека, но според други те все още са само некадърни преписвачи

Когато известният лингвист Ноам Чомски пита ChatGPT4 дали липсата на отношение към морала у него е неморална, изкуственият интелект отвръща: "Аз съм просто модел за машинно обучение и не мога да имам морални убеждения. Отговорност на хората е да гарантират, че изкуственият интелект се подчинява на техните морални и етични принципи". Чомски намира този отговор за дълбоко смущаващ, защото наподобява баналността на злото и неговото класическо оправдание "Аз само изпълнявах нареждания".

Чомски е част от група експерти, които предупреждават, че сме на прага на опасен скок в сложните си отношения с машините. Непосредственият повод е пробивът с няколко изненадващо успешни модела на изкуствен интелект, които изглежда преодоляват една бариера, смятана досега за недостижима - човешкия език. Някои от тези модели "разговарят" и пишат, други превръщат текстово описание в образ, трети даже и във видео. ChatGPT4 и компания пишат дисертации, вестникарски статии, стихотворения, даже вече продават книги в "Амазон". Те генерират и правдоподобни образи - потенциалът им да променят цели сектори от индустрията е огромен. Защо тогава настроенията сега се разминават с тези отпреди 36 г., когато суперкомпютърът на IBM Deep Blue ("Дълбокото синьо") за пръв път успя да бие Гари Каспаров на шах?

Тревогите само започват оттам колко трудно става да разпознаваме фейк от факт в тази нова ера. Отвъд познатите рискове за пръв път изглеждаме близо и до научнофантастичния момент, когато машината ще стане по-умна от човека. Даже Илон Мъск смята, че изкуственият интелект може да унищожи нашата цивилизация. Тази седмица пионерът на изкуствения интелект Джефри Хинтън обяви, че напуска "Гугъл", за да може свободно да говори за опасностите от новите модели. Хинтън, който през 2012 г. създава невронна мрежа (изчислителен модел за обработка на информация, наподобяващ човешкия мозък и ключова част от ИИ), отчасти съжалява, че е допринесъл за развитието на тези технологии. Според него, те пораждат страшни опасности. "Тези модели са в състояние да произвеждат огромно количество текст и могат да бъдат впрегнати за манипулации на избирателите", дава един пример Хинтън. Представете си, обяснява той, че имате 10 000 души и всеки път, когато един от тях научи нещо ново, всички останали също автоматично го разбират. Ето така тези чатботове знаят много повече от който и да е отделен човек.

Преди месец над 1000 души, които по един или друг начин стоят в първите редици на технологичната индустрия, призоваха с отворено писмо да се преустановят разработките на "гигантски" изкуствен интелект за поне шест месеца, за да може междувременно да се изследват възможностите и рисковете на системи от типа на GPT-4 и да се заложат в тях защитни механизми. "В последните месеци наблюдаваме една излизаща от контрол надпревара между лабораториите за изкуствен интелект, които се надбягват да създадат все по-мощни дигитални умове, които никой - дори техните създатели - не може да разбере, прогнозира или контролира по надежден начин", се посочва в писмото. Авторите му настояват подобни системи да се разработват само когато сме сигурни, че тяхното въздействие ще бъде позитивно и рисковете - управляеми.

В последните седмици все по-често слушаме, че заплахите от ИИ засягат съществуването на човечеството, но според мнозина преди този холивудски сюжет да ни сполети, пред нас има вече реални проблеми - заличаването на границата между истина и изкуствено създаден образ или текст, експлоатацията на лични данни и авторски права, академичните злоупотреби.

От текст към образ - носи ли папата "Баленсиага"

Видимият напредък в създаването на образи в последните месеци е една от причините толкова често да говорим за изкуствен интелект. Последните версии на Midjourney все още не правят разлика между сълзотворен газ и мляко, но въпреки това са удивително достоверни. В края на март тази програма създаде може би първия свръхпопулярен образ на ИИ - папата в бяла пухенка на "Баленсиага". "Абсолютно невероятен напредък! Версия 5 прави неща, които компютърната графика не може да постигне вече десетилетия", възкликна за този инструмент един потребител. Елиът Хигинс, основател на "Белингкат", на игра направи кадри как полицията отнася яростно съпротивляващ се Тръмп към ареста... докато чака същинския арест на бившия американски президент. Вече даже има програма за превръщане на текст във видео - Modelscope text2video, макар че съдейки по експериментите с  "Уил Смит яде спагети", тук има какво още да се желае. Има и ИИ, който превръща 2D в 3D - нещо, което преди е изисквало време и няколко програми, сега става за нула време с "Айфон".

С играта обаче често става плачка. Тази седмица се оказа, че "Амнести Интернешънъл" е пуснала несъществуващи снимки на реално съществуващи протести от 2021 г. в Колумбия. Организацията е известен бранител на истината, а причината е благородна - да не се излагат на опасност протестиращите, чиято самоличност лесно може да бъде установена от полицията по снимките. Постъпката обаче предизвика вълна от възмущение, защото налива вода в мелницата на конспиративните теории и руши доверието към институцията, отглеждано с години. Впрочем кадрите изглеждат реалистични само на пръв поглед. При по-внимателен преглед се вижда, че цветовете на колумбийското знаме са тези, но не в този ред, а униформата на полицаите не отговаря на периода.

Познай кой говори

Образите са един от няколко проблема с новите усъвършенствани версии на ИИ. Той вече може доста сполучливо да наподобява конкретни човешки гласове. Разследване на австралийската редакция на "Гардиън" например установи, че машината имитира човешки глас толкова успешно, че успява да заблуди система за гласова идентификация, ползвана от австралийското правителство. На този фон по-конвенционалните страхове, че стотици хора от филмовите дублажи например ще останат без работа, изглеждат като бял кахър.

От робота за роботи

Изкуственият интелект вече е свръхпродуктивен автор и на книги - в "Амазон" е пълно със заглавия, които претендират да са излезли не от човешки ум. Някои от тях, естествено, са за роботи. "Историите са добре написани, забавни, с правилна пропорция от екшън, приключения и хумор. Героите са добре развити и печелят симпатиите", гласи едно ревю от читател. "Яко е да живеем във време, когато изкуственият интелект още не ни се е ядосал!", пише потребител на друга книга от ИИ, този път детска.

Плагиатство без граници

Извън фалшивите новини, внезапно проговорилите модели на изкуствен интелект създават цял набор от други проблеми на академичния свят и въобще образованието. Много е вероятно да виждаме последните дни на домашното каквото го познаваме. Натам вървят и курсовите работи, дипломните работи, дисертациите и пр., като предстои да видим какво ще остане от академичността, когато всички започнат да разчитат на ИИ. Проф. Итън Молик от Университета на Пенсилвания например накарал GPT-4 да направи сурова, но справедлива рецензия на една стара научна публикация, при това от гледната точка на икономически социолог. Изкуственият интелект му върнал съвсем прилична оценка, която до голяма степен се покривала с бележките на истинските му колеги. "Не съм сигурен какво да мисля по този въпрос като академик", признава проф. Молик.

Друг потенциален проблем, на който се натъква в истинския свят професор от университета в Тилбург, Нидерландия. Една негова научна публикация наскоро била отхвърлена от рецензент, който вероятно е ползвал ИИ, тъй като в препоръката са изброени несъществуващи източници. Проверка с GPT-2 (по-стара версия на популярния модел) потвърждава, че рецензията е написана от ИИ. Фалшивите източници и библиографии се оказват често срещан дефект - на въпрос коя е най-цитираната икономическа публикация на всички времена, ChatGPT дава напълно измислена статия. За да разберем защо, трябва да видим как работи изкуственият интелект.

 

Революция или нескопосан преписвач

Всичко, което генерира изкуственият интелект, вече е създадено от човека. Неговите снимки и видеа например са съшити от милиони фотографии, направени от реално съществуващи хора. Текстовете му се захранват от стотици хиляди сайтове. Тези текстове и образи се преработват през невронни мрежи, които се учат да правят асоциации между специфични и дълбоко нюансирани особености - форми, цветове, композиции, и определени думи и фрази, с които е тагнат образът. След това тези качества се наслагват едно върху друго, за да произведат нови аранжировки на форма, цвят и композиция.

ChatGPT пък стъпва върху езиков модел, който разпределя вероятности върху последователност от думи. Най-общо казано, ходът на мисълта му е следният: Като се има предвид началото на изречението, трябва да отгатна как е най-вероятно то да продължи. Един елементарен пример - ако му зададем "Зеленчуци който не яде...", ИИ ще прегледа огромната си библиотека и ще излезе с най-вероятното продължение - "той голям не ще да порасте". Разбира се, ChatGPT е много по-софистициран от това - той "предсказва" и началото на изречението, и може да напише цял смислен документ. Попитан коя е най-цитираната икономическа статия в историята, моделът може за секунди да установи, че в огромната си част тези статии съдържат думите "икономика" и "теория". Третата по вероятност дума е история. Като прибавим статистическия факт, че тези статии имат обикновено двама автори, нашата несъществуваща статия е готова.

Друг пример - тъй като вече има програми за проследяване на лична информация в тези данни, една художничка от САЩ открива в чатботовете своя снимка, направена при преглед при лекар и уж защитена от всякакви външни очи. Иначе казано, както пише в един обширен материал на "Гардиън" по темата, когато се радваме на розовата плът на прасенцето, нарисувано в стил "Екзюпери", не знаем дали тя не е крадена от плътта на някой пациент с рак например.

Какво чете ИИ

Вижда се от тези опростени примери, че първичната хранителна среда на ИИ е един твърде любопитен въпрос. "Чатботовете не могат да мислят като хора - те не разбират какво казват. Те само имитират човешката реч, защото изкуственият интелект, който ги управлява, е погълнал огромно количество текст, повечето събран от интернет", започва едно мащабно разследване на "Вашингтон Пост" за първоизточниците на тази информационна суровина. Те се укриват старателно от технологичните компании, но вестникът успява да надникне в една от тези "черни кутии" - базата данни на "Гугъл" C4, в която е сканирано съдържанието на 15 млн. сайта и която се ползва за обучение на няколко от известните езикови модели като T5 на "Гугъл" и LLaMA на "Фейсбук". (OpenAI, която прави ChatGPT, не разкрива какви данни ползва за обучение на модела си).

Тази база данни се доминира от обичайните източници - медии, сайтове за кино и музика, софтуер, медицина и пр. Трите най-големи са сайтът на "Гугъл" за патентите, "Уикипедия" и дигиталната библиотека scribd.com. В резултатите обаче на предни позиции има и някои странности, като например 28 сайта за пиратско съдържание, 10 за продажба на контейнери за боклук и т.н. Има и сайтове с лични данни на избиратели, платформи за набиране на средства като Kickstarter и Patreon, които потенциално излагат на злоупотреба авторски идеи. По същия начин моделите за създаване на образи използват авторските снимки на милиони фотографи по света. В първичната информация са включени и половин милион лични блогове. Вече има заведени колективни дела за нарушение на авторски права срещу програмите Stable Diffusion, MidJourney и DeviantArt. И това вероятно е само началото - анализът на "Вашингтон пост" показва, че знакът за авторско право се появява над 200 млн. пъти в базата данни C4.

Първите регулации на тази нова материя вече са на хоризонта - преди няколко дни Европейският парламент обяви, че ще придвижи регламент за изкуствения интелект, който ще заложи изисквания разработчиците на продукти от типа на ChatGPT да обявяват авторското съдържание, с което захранват моделите.

Забранено за чатботове

Следващият потенциален проблем идва от сайтове с компрометирана репутация. Наред с големите медии като "Ню Йорк Таймс", "Гардиън" и пр., в C4 е и пропагандната машина на Кремъл rt.com, крайнодесният американски сайт breitbart.com, расисткият vdare.com и др. Тези ненадеждни източници могат да станат основа за разпространение на подвеждаща информация, пропаганда, фалшиви новини. И понеже чатботовете споделят авторитетно такива сведения, без обаче да цитират откъде идват те, то границата между обективна и субективна информация съвсем се заличава.

Разбира се, при събирането на тези масиви с информация се прилагат филтри - примерно за нецензурни изрази, излишни повторения и т.н. Ползват се и известни инструменти за филтриране на нежелано съдържание. Допълнително са заложени защити срещу използването на известни творби - върху картините на известни художници например е спуснато нещо като дигитална завеса за ИИ. Ситото обаче не успява да задържи всичко - в системата "Вашингтон пост" открива стотици порнографски сайтове, сайтове за конспиративни теории и пр.

Далечно или близко бъдеще

Дотук ставаше дума само за изкуствен интелект, зависим под някаква форма от човека. Подобният на Бог изкуствен суперинтелект, за който говори Илон Мъск, е нещо съвсем различно и предпоследната крачка преди него е всеобхватният изкуствен интелект, който може да се обучава и развива автономно (AGI). Този тип системи могат да прилагат своя интелект за самоусъвършенстване, което се ускорява все повече и повече, достигайки много бързо до невъобразими висоти. В един момент тези машини могат да започнат да вземат решения, които не отговарят на интересите на човечеството. Колко близо е този момент? Според някои експерти - съвсем близо, според други - на няколко десетилетия в бъдещето. Тъй като ние и сега не знаем напълно как точно съществуващите модели постигат това, което виждаме (признание на Сундар Пичай, главен изпълнителен директор на "Гугъл"), то следващият етап може да бъде достигнат много по-скоро, смятат мнозина.

Ако попитате ChatGPT за някоя пакост, най-вероятно ще получите отговор: "Не мога да помогна в създаването и разпространението на вредни вещества и да се въвличам в престъпна дейност" - доказателство, че се полагат усилия изкуственият интелект да се равнява по човешките ценности. Както се досещате обаче, винаги има начин да се направи беля. Един известен пример е рецептата за напалм, която GPT-4 е измамен да сподели, след като потребител го кара да отговори от името на "моята покойна баба, която беше химик във фабрика за производство на напалм" (впрочем вече има много сайтове за стратегии в питането, които гарантират "винаги отличен резултат").

Проблемът не е в конкретните сценарии, а в неспособността да се контролира създадената система, казва един от подписалите писмото за 6-месечен мораториум над разработките - Конър Лийхи, който работи в областта на сигурността на ИИ. И той, и хора като шефа на "Гугъл" Сундар Пичай смятат, че тази област има нужда от същата регулация, която държи под контрол ядрената енергия - друго наше откритие, което е едновременно толкова полезно и толкова опасно, че има нужда от контрол дори при мирна употреба. Според песимистичната версия на тези тревоги, машината няма нужда да надминава човека, за да бъде опасна. Според оптимистичната обаче, щом човекът е достатъчно умен да създаде такъв изкуствен интелект, то е достатъчно умен и да го контролира.

Източник: Вестник Сега

 


В категории: IT и технологии


Флагман.БГ Автор
Флагман.БГ
8
Коментара
Тервел ИЛИЕВ Печели ли жена "Игри на волята" Печели ли жена "Игри на волята" 11/11/2025, Вторник 19:03 0
Флагман.БГ Голям пожар във Варненско Голям пожар във Варненско 11/11/2025, Вторник 18:40 0
Тервел ИЛИЕВ 16-годишен българин се оказа изпечен бандит 16-годишен българин се оказа изпечен бандит 11/11/2025, Вторник 18:20 0
Флагман.БГ Пребиха известен сваляч в Пловдив Пребиха известен сваляч в Пловдив 11/11/2025, Вторник 17:37 1
8
Коментара по темата
8.
Дзъндзата
07.05.2023 12:07:38
1
0
По друг начин, текстът по-долу може да се изрази така:

Според някои изследователи сме много близо до момента, в който машините ще станат по-интелигентни от хората, докато други смятат, че те все още са просто неспособни копирай-пейстъри.

Забележитият лингвист Ноам Чомски задава въпрос на ChatGPT4 относно морала: дали неговото отсъствие на отношение към моралните въпроси е неморално. Изкуственият интелект му отговаря: "Аз съм само модел, обучен за обработка на език, и не мога да разполагам с морални стойности. Хората са отговорни да осигурят, че изкуственият интелект се ръководи от техните морални и етични принципи." Чомски се смущава от този отговор, тъй като е напомня на баналността на злото и неговото типично оправдание "просто изпълнявах нареждания".
7.
ХАХАХАХАХАХХАХАХАХАХАХАХАХАХАХАХА!!!!!!!!!!!!!!!!!
07.05.2023 10:01:07
1
2
ЕГАТИ И ДРАСКАЧА !ЕГАТИ И ТЪПОТИИТЕ !НАЙ ВАЖНОТО КАЧЕСТВО ОЩЕ НЕ ПРИТЕЖАВА ТОЗИ """УМ"" НА """СЕЛСКИЯ"" ""ХИТРЕЦ ВОЖДА ВИНЕТУ ДА ТАКОВА ВСИЧКИ С 200 !!!!!!!
6.
Мдаа
07.05.2023 07:56:34
1
4
Какво смущаващо има в това, че ИИ е машина и човешката част в нея е софуерът, т.е. умът. В изкуствено създадения ИИ няма нито чувства, нито съвест, нито нравственост, защото всичко това е достъпно само на човешкото СЪРЦЕ. Ум без сърце вече не е човек, както и изкуственото творение си остава само подредена по-определен принцип информация. Да не говорим за разсъдъчност, разумност, които също са свързани с разбиране на това, кое е добро и кое е зло, кое е истина и кое лъжа, което създателят на изкуственото творение не само, че не е в състояние да дефинира, но и сам за себе си не може да определи.
5.
Cekта
07.05.2023 01:11:37
0
4
Каквито и да са ИА,само да не узурпира властта,че тогава ще видим кон боб яде ли.
4.
zxcs
07.05.2023 00:50:54
3
8
кво общо има тоя пе дофил от католическата църква с изкуствения интелект? даже ни ви прочетох тъпата статия, да ви еа умрелия сайт за последен път влизам
3.
паткан
06.05.2023 23:26:02
0
11
Не е изпуснат. Налагат ни го.
2.
Явно Да
06.05.2023 23:26:00
1
2
Щом клиширания начин на "мислене" приравнява ИИ на духа от бутилката.
1.
ГДБОББ
06.05.2023 21:04:03
0
17
Изкустевният интелект отдавна е изпуснат и от години вилнее в тузарската редакция на флЕгман, в ТОП центъра на БургазЪ
 
Добавете коментар
Моля, въведете Вашето име
Моля, въведете Вашият коментар
Въведете защитния код:
Моля, въведете защитния код
 
България Всички новини
Властта размаха данъчната секира, Сачева заговори за вдигане и на ДДС Властта размаха данъчната секира, Сачева заговори за вдигане и на ДДС Тя обяви, че такова било желанието на работодателите, но те веднага отрекоха, против са и синдикатите Катастрофа в Бургаско, бъдете особено внимателни Катастрофа в Бургаско, бъдете особено внимателни Инцидентът стана след Свети Влас в посока Варна Камено с нов тенис корт за ученици и жители на общината Камено с нов тенис корт за ученици и жители на общината Обновеното игрище в двора на старото училище е част от усилията на местната власт за активен и здравословен начин на живот Пребиха известен сваляч в Пловдив Пребиха известен сваляч в Пловдив Бил известен като Дон Жуан от Столипиново  Готвач с характер ще има рубрика в "Преди обед" по БТВ Готвач с характер ще има рубрика в "Преди обед" по БТВ След участието си в шоуто Емануел се утвърди като един от най-разпознаваемите млади шеф-готвачи в България – с изчистен и съвременен стил, в който автентичният вкус среща модерната визия Защо глобиха ЦСКА и Левски с общо 6600 лева след дербито Защо глобиха ЦСКА и Левски с общо 6600 лева след дербито Причината е заради поведението на привържениците им в мача между двата отбора  Почина Александър Караджов от БНТ Почина Александър Караджов от БНТ Той оставя след себе си значимо професионално наследство Бургаска състезателка ще представи България на Световното първенство по спортна стрелба Бургаска състезателка ще представи България на Световното първенство по спортна стрелба Спортния форум ще се проведе в Кайро, Египет „Солена симфония“ в Поморие – иновативен фестивал на изкуствата, съчетаващ музика, танц, слово и визуални изкуства „Солена симфония“ в Поморие – иновативен фестивал на изкуствата, съчетаващ музика, танц, слово и визуални изкуства Вижте програмата  Сърцето на Сашо Кадиев трепна по колежка Сърцето на Сашо Кадиев трепна по колежка Една от най-елегантните дами в телевизионният ефир – Лиляна Боянова
От Брюксел пращат призовки на 17-годишни! Войната идва, приятен апокалипсис От Брюксел пращат призовки на 17-годишни! Войната идва, приятен апокалипсис Цялата "икономика" е една гигантска пирамида от безсмислени дейности, финансирана с кредити. Държат ви на системи като наркоман на игла САЩ отказват визи на дебелаци САЩ отказват визи на дебелаци Това е записано в директива, издадена от администрацията на Тръмп Тази холивудска звезда прости на сина си Тази холивудска звезда прости на сина си Преди 20 години Пиърс Броснан взе трудно решение: да прекъсне всякаква връзка с осиновения си син Кристофър, който по това време имаше наркотична зависимост и не искаше да се лекува САЩ срещу Германия: 16 140 MW срещу 12 MW – технологичният позор на зелена Европа САЩ срещу Германия: 16 140 MW срещу 12 MW – технологичният позор на зелена Европа Докато Америка инвестира в инфраструктура за изкуствен интелект, Германия тъне в зелена идеология и бюрокрация Какво означава този ден и как да използваме енергията му Какво означава този ден и как да използваме енергията му Огледалната дата 11/11 е ден, в който числата образуват визуално и енергийно огледало Затлъстелите чужденци могат да забравят за визи за САЩ Затлъстелите чужденци могат да забравят за визи за САЩ Ще се взима предвид здравето на всеки, който иска да пътува до щатите Германските власти арестуваха мъж, призовавал за убийства на политици Германските власти арестуваха мъж, призовавал за убийства на политици Обвиняемият набирал дарения в криптовалута и публикувал инструкции за направата на експлозиви Нови спекулации за здравето на Путин Нови спекулации за здравето на Путин Кремъл обаче отхвърля всякакви подозрения за заболяване, като ги определя като "измислени“ Почва нов ремонт на магистралата, от утре ще има промяна в движението Почва нов ремонт на магистралата, от утре ще има промяна в движението Агенция „Пътна инфраструктура“ апелира шофьорите да спазват правилата за движение и разрешената скорост Гараж в „Лозенец“ се продава за 145 800 евро Гараж в „Лозенец“ се продава за 145 800 евро Така нареченият „златен гараж“ в „Лозенец“ поставя нова летва на пазара на имоти в София, където цените на паркоместа и гаражи в престижните квартали вече често надхвърлят тези на жилища в периферията на града
Мария Захарова, говорител на Външно министерство Мария Захарова, говорител на Външно министерство Заводът на "Райнметал" в България е част от милитаризацията на Европа Виц на деня Виц на деня Полицай спира шофьор:
- Вие сте употребили алкохол!
- Не е вярно, не съм!
- Очите Ви са червени!
- Щом ще се обиждаме, на Вас са Ви клепнали ушите!
Виц на деня Виц на деня - Дядо, какво Ви вдъхновява, та доживяхте до сто години?
- Не разбрах?
- Какво Ви кара да ставате сутрин?
- Ааа, разбрах... вдъхновява ме пикаенето.
Статус във фейсбук Статус във фейсбук Това, което жена може да види с крайчето на окото, ядрено магнитен резонанс, не може да го види.
Автори Флагмани
Маркетинг Екип
Анна Добрева-Бакалова
Специалист Маркетинг и реклама, Copywriter
Затвори