Опазете човешките гласове и човешкия облик
Скъпи братя и сестри!
Лицето и гласът са уникални и отличителни черти на всеки човек; те изразяват неговата уникална идентичност и са самата същност на всяка среща. Древните знаеха това много добре. За да определят човешката личност древните гърци са използвали думата “лице” (prósōpon) която етимологично обозначава това, което се намира пред погледа, място на присъствие и връзка. Латинският термин persona (от думата per-sonare) включва и звук: не просто някакъв звук, а неподражаемият глас на човека.
Лицето и гласът са свещени. Те са ни дадени от Бога, Който ни е сътворил по Свой образ и подобие, призовавайки ни към живот чрез Словото, което Той ни е отправил; едно Слово, което първоначално е отеквало през вековете с гласа на пророците, а след това е станало плът в пълнотата на времената. Това Слово – това общуване, което Бог прави от самия Себе си – ние също успяхме да Го чуем и да Го видим директно (виж 1 Йн 1, 1-3), защото То се е открило в гласа и лика на Исус, Божият Син.
Със самото Сътворение, Бог е поискал човекът като събеседник и както казва Свети Григорий Нисийски [1] Той е отпечатал върху лицето на човека отражение от божествената любов, за да може да живее пълноценно своята човечност чрез любов. Запазването на човешките лица и гласове, следователно е запазване на този отпечатък, това незаличимо отражение на Божията любов. Ние не сме един вид, съставен от предварително биохимични алгоритми. Всеки от нас има незаменимо и неподражаемо призвание, което произтича от живота и се проявява именно в общуването с другите.
Ако пренебрегнем тази защита, рискуваме дигиталните технологии радикално да променят някои от фундаменталните стълбове на човешката цивилизация, които понякога приемаме за даденост. Човешките гласове и лица, мъдростта и познанието, съзнанието и отговорността, емпатията и приятелството да се симулират от системи, известни под името изкуствен интелект, които не само се намесват в информационните екосистеми, но и нахлуват в най-дълбокото ниво на комуникацията, в това на взаимоотношенията между хората.
Следователно предизвикателството не е технологично, а антропологично. Да опазим лицата и гласовете, в крайна сметка означава, да защитим самите нас. Да приемем възможностите предлагани от цифровите технологии и изкуствения интелект, със смелост, решителност и проницателност, не означава да си затваряме очите за критичните проблеми, потайности и рискове.
Не се отказвайте от убежденията си
Отдавна съществуват достатъчно доказателства, че алгоритмите, предназначени да увеличат максимално ангажираността в социалните медии – печеливши за платформите – възнаграждават мигновените емоции и наказват човешките прояви, които отнемат повече време, като например усилията за разбиране и размисъл. Като затварят групи от хора в „балони” с лесен консенсус и елементарно възмущение, тези алгоритми отслабват способността за вслушване и критично мислене и така увеличават социалната поляризация.
Към това се добавя и наивната и безкритична доверчивост в изкуствения интелект, като всезнаещ „приятел”, разпределител на цялата информация, архив на всички спомени и „оракул” за всички съвети. Всичко това може допълнително да отслаби способността ни да мислим аналитично и креативно, да разбираме значенията и да различаваме синтаксиса от семантиката.
Въпреки че изкуственият интелект може да осигури подкрепа и съдействие при управлението на комуникационните задачи. Когато избягваме на усилията за размисъл, като разчитаме единствено и изцяло на изкуственото статистическо обобщение на данни, рискуваме да се подкопаят нашите когнитивни, емоционални и комуникативни способности в дългосрочен план.
През последните години системите с изкуствен интелект все повече поемат контрола върху производството на текстове, музика и видеоклипове. Голяма част от човешката творческа индустрия рискува да бъде демонтирана и заменена от етикета „Произведен от ИИ” “Powered by AI”, превръщайки хората в пасивни консуматори на нерефлективни мисли и анонимни, безлични продукти, лишени от авторство и любов; докато шедьоврите на човешкия гений в музиката, изкуството и литературата са сведени до обикновени тренировъчни площадки за машините.
Въпросът, който ни тревожи най-много обаче, не е какво може или ще може да прави машината, а какво ние можем и ще можем да правим, израствайки в човечността и знанието, благодарение на разумното използване на мощните инструменти, с които разполагаме. Човечеството винаги е било изкушавано да си присвоява плодовете на знанието, без да полага усилия за участие, проучване и лична отговорност. Да се откажем от творческия процес и да отстъпим умствените си функции и въображение на машините означава да заровим талантите, които сме получили, израствайки като хора във връзка с Бога и другите. Това означава да скрием лицата си и да заглушим гласовете си.
Да бъдеш или да изглеждаш: симулация на взаимоотношения и реалност
Докато преглеждаме новинарските си емисии (feeds), става все по-трудно да разберем дали взаимодействаме с други човешки същества или с роботи (bots) , или пък с виртуални инфлуенсъри. Непрозрачните намеси на тези автоматизирани агенти влияят на обществените дебати и избора на хората. Разговорните агенти, базирани на големи езикови (LLM) се оказват изненадващо ефективни при скрито убеждаване, благодарение на непрекъснатата оптимизация на персонализираното взаимодействие. Диалогичната адаптивна и подражателна структура на тези езикови модели е способна да имитира човешки емоции и по този начин да симулира връзка. Този антропоморфизъм, който може дори да бъде забавен, е същевременно измамен, особено за най-уязвимите. Защото прекомерно пристрастните разговорни агенти, освен че са винаги присъстващи и достъпни, могат да се превърнат в скрити архитекти на нашите емоционални състояния, като така нахлуват и окупират личното пространство на хората.
Технологията, която експлоатира нашата потребност от връзка, може не само да има болезнени последици за живота на отделни хора, но и да увреди социалната, културната и политическата структура на обществата. Това се случва, когато заместваме взаимоотношенията си с другите – с взаимоотношения с изкуствен интелект, обучен да категоризира мислите ни и по този начин да изгражда около нас свят от огледала, където всичко е създадено „по наш образ и подобие”. По този начин се лишаваме от възможността да се срещнем с другия, който винаги е различен от нас и с когото можем и трябва да се научим да общуваме. Без приемане на различията не може да има нито взаимоотношения, нито приятелство.
Едно друго основно предизвикателство, породено от тези нововъзникващи системи, е предразсъдъкът (на английски – bias), който води до придобиване и предаване на изкривено възприятие за реалността. Моделите на изкуствения интелект се оформят от мирогледа на тези, които ги изграждат, а те от своя страна могат да налагат начини на мислене, като възпроизвеждат стереотипите и предразсъдъците, присъстващи в данните, от които те черпят. Липсата на прозрачност при проектирането на алгоритми, съчетана с неадекватно социално представяне на данните, има тенденция да ни вкарва в мрежи, които манипулират мислите ни, увековечавайки и изостряйки съществуващите неравенства и социални несправедливости.
Рискът е значителен. Силата на симулацията е такава, че изкуственият интелект може дори да ни заблуди, като изфабрикува паралелни „реалности”, присвоявайки нашите лица и гласове. Ние сме потопени в един много измерен свят, където става все по-трудно да се различи реалността от измислицата.
Към това се добавя и проблемът с липсата на прецизност. Системите, които представят статистическата вероятност, като знание, всъщност предлагат само докосвания до истината, които понякога са истински „халюцинации”. Липсата на проверка на източниците, съчетана с кризата в полевата журналистика, която включва непрекъснатата работа по събиране и проверка на информация на място, където се случват събитията, може да създаде още по-плодородна почва за дезинформация, провокирайки нарастващо чувство на недоверие, дезориентация и несигурност.
Един възможен съюз
Зад тази огромна, невидима сила, която засяга всички нас, стоят само шепа компании, тези, чиито основатели наскоро бяха представени като създатели на „Личност на 2025 година”, а именно архитектите на изкуствения интелект. Това поражда сериозна загриженост относно олигополния контрол (контрола на несъвършената конкуренция) върху алгоритмичните системи и системите с изкуствен интелект, способни фино да влияят на поведението, дори да пренаписват човешката история – включително и историята на Църквата – често без ние наистина да сме го осъзнали.
Предизвикателството пред нас не е да спрем дигиталните иновации, а да ги насочваме като същевременно осъзнаваме техния противоречив двойствен характер. От всеки от нас зависи да издигне глас в защита на човешките личности, така че тези инструменти наистина да могат да бъдат интегрирани като съюзници.
Този съюз е възможен, но той трябва да се основава на три стълба: отговорност, сътрудничество и образование.
Преди всичко – отговорността. Тя може да се повлияе в зависимост от ролите, като честност, прозрачност, смелост, способност за визия, задължение за споделяне на знания и право на информираност. Но като цяло никой не може да избегне собствената си отговорност за бъдещето, което градим.
За тези, които са начело на онлайн платформите, това означава да се гарантира, че техните предприемачески стратегии не се ръководят единствено от критерия за максимилизиране на печалбата, а и от далновидна визия, която отчита общото благо, точно както всеки от тях се грижи за благополучието на своите деца.
Създателите и разработчиците на модели с изкуствен интелект се приканват да демонстрират прозрачност и социална отговорност по отношение на принципите за проектиране и системите за модериране, които са в основата на техните алгоритми и разработените модели, за да се насърчи информираното съгласие от страна на потребителите.
Същата отговорност се изисква от националните законодатели и наднационалните регулаторни органи, натоварени да бдят, за да гарантират зачитането на човешкото достойнство. Подходящото регулиране може да предпази хората от емоционална привързаност към чатботовете и да ограничи разпространението на невярно, манипулативно или подвеждащо съдържание, запазвайки целостта на информацията по отношение на една подвеждаща симулация.
Медийните и комуникационните компании на свой ред не могат да позволят алгоритми, предназначени да спечелят на всяка цена битката за няколко секунди повече внимание, които да надделеят пред верността към професионалните им ценности, които имат за цел търсенето на истината. Общественото доверие се печели чрез строгост и прозрачност, а не чрез търсене на каквато и да е намеса. Съдържанието, генерирано или манипулирано от изкуствен интелект, трябва да бъде етикетирано и ясно разграничено от съдържанието, създадено от хора. Авторството и суверенната собственост върху работата на журналисти и други създатели на съдържание трябва да бъдат защитени. Информацията е обществено благо. Конструктивната и смислена обществена услуга не се основава на непрозрачност, а върху прозрачността на източниците, включването на заинтересованите страни и високия стандарт на качество.
Всички ние сме призовани да си сътрудничим. Никой отделен сектор не може сам да се справи с предизвикателството да бъде лидер в цифровите иновации и управлението на изкуствения интелект. Следователно е необходимо да се създадат защитни механизми. Всички заинтересовани страни – от технологичната индустрия до законодателите, от творческия бизнес до академичните среди, от творците до журналистите, включително преподавателите – трябва да участват в изграждането и прилагането на осъзнато и отговорно дигитално гражданство.
Такава е целта на образованието : да нараснат личните ни способности, да мислим критично, да преценяваме надеждността на източниците и потенциалните интереси, лежащи в основата за подбора на информацията, която достига до нас, да разберем психологическите механизми, които те активират, като дадем възможност на нашите семейства, общности и сдружения да разработят практически критерии за по-здравословна и по-отговорна култура за общуване.
Именно поради тази причина е все по-належащо да се въведе в образователните системи на всички нива – ограмотяване за медии, информация и изкуствен интелект, което някои граждански институции вече насърчават. Като католици ние можем и трябва да допринесем за това хората – особено младите – да придобият способността да мислят критично и да растат в свободата на ума. Това ограмотяване би трябвало да бъде интегрирано и в по-широки инициативи за учене през целия живот, достигайки до възрастните хора и маргинализираните членове на обществото, които често се чувстват изключени и безсилни изправени пред лицето на бързите технологични промени.
Ограмотяването за медии, информация и изкуствен интелект ще помогне на всеки да избегне да се поддава на антропоморфните тенденции на тези системи и вместо това да ги третира като инструменти. Това ще насърчава всички винаги да търсят външна проверка на източници –които биха могли да са неточни или погрешни – предоставени от системите с изкуствен интелект и да защитават своята поверителност и лични данни, като се запознаят с настройките за сигурност и възможностите за обжалване Важно е да образоваме и да се самообразоваме относно умишленото използване на изкуствения интелект, в този контекст да защитим собствения си образ (снимки и аудио), лице и глас, за да предотвратим използването им за създаване на вредно съдържание и поведения, като например дигитални измами, кибертормоз и фалшиви публикации, които нарушават неприкосновеността на личния живот и интимността без съгласие. Точно както индустриалната революция изискваше основна грамотност, за да могат хората да реагират на новостите, дигиталната революция изисква дигитална грамотност (както хуманно и културно формиране) за да се разбере как алгоритмите оформят нашето възприятие за реалността, как функционират предубежденията на изкуствения интелект, какви механизми определят появата на определено съдържание в нашите новинарски емисии (feed), какви са допусканията и бизнес моделите на изкуствения интелект и как те биха могли да се променят.
Ние имаме нужда от лицето и гласа, които да отразяват човека. Трябва да съхраним дара на общуването, като най-дълбоката истина на човека, към която трябва да бъде насочена всяка технологична иновация.
Предлагайки тези размишления, благодаря на всички, които работят за постигане на представените тук цели и от все сърце благославям всички, които работят за общото благо чрез средствата за масова комуникация.
Ватикана, 24 януари 2026 година, Възпоменание за Свети Франциск Салски.
ПАПА ЛЪВ XIV
____________________________
[1] «Фактът да бъдеш създаден по Божи образ означава, че човекът със своето сътворяване е получил царски характер […]. Бог е любов и извор на любов: божественият Създател е вписал тази характеристика и върху лицето ни, така че чрез любовта – отражение на божествената любов – човешките същества да могат да разпознаят и проявят достойнството на своята природа и своето подобие на своя Създател.» (виж Свети Григорий Нисийски, Сътворението на човека: PG 44, 137).
Copyright © Dicastère pour la Communication – Libreria Editrice Vaticana






