Изкуственият интелект и мира
В началото на новата година, време за благодат, което Господ дава на всеки от нас, бих искал да се обърна към Божия народ, към народите, към държавните и правителствените ръководители, към представителите на различните религии и гражданското общество, както и към всички мъже и жени на нашето време, за да им поднеса моите най-добри пожелания за мир.
1. Прогресът на науката и технологиите, като път към мира
Светото писание свидетелства, че Бог е дал на хората Своя Дух, за да имат «мъдрост, разум, знание и всяко изкуство» (Изход 35,31). Интелигентността е израз на достойнството, дадено ни от Създателя, който ни е създал по Свой образ и подобие (вж. Бит. 1,26) и ни е позволил да отговорим на Неговата любов със свобода и знание. Науката и технологиите проявяват това фундаментално релационно качество на човешкия интелект по особен начин: те са изключителни продукти на неговия творчески потенциал.
В Пасторалната конституция Gaudium et Spes Вторият Ватикански събор потвърди отново тази истина, като заяви, че «чрез своя труд и своята изобретателност човекът винаги се е стремял да развие собствения си живот». [1] Когато човешките същества, «с помощта на технологията», се стремят да направят земята «подходящ дом за цялото човешко семейство», [2] те действат според Божия план и си сътрудничат в желанието Му да доведе творението до окончателен завършек и да разпространява мир сред народите. По същия начин напредъкът в науката и технологиите, доколкото допринася за по-добро устройство на човешкото общество, за нарастване на свободата и братското общение, води до усъвършенстване на човека и до преобразяване на света.
Ние с право се радваме и сме благодарни за невероятния напредък в науката и технологиите, чрез които безбройните злини, които засегнаха човешкия живот и причиниха големи страдания, бяха коригирани. В същото време техническият и научен прогрес, позволявайки упражняването на безпрецедентен контрол върху реалността, поставя в ръцете на човека широк набор от възможности, някои от които могат да се окажат риск за оцеляването на човечеството и опасност за общия дом. [3]
Забележителният напредък в новите информационни технологии, особено в цифровата сфера, предоставя вълнуващи възможности и сериозни рискове, с тежки последици за стремежа към справедливост и хармония между народите. Ето защо е необходимо да си зададем някои неотложни въпроси. Какви ще бъдат средносрочните и дългосрочните последици от новите цифрови технологии? Какво ще бъде тяхното въздействие върху живота на хората и обществото, върху международната стабилност и мира?
2. Бъдещето на изкуствения интелект: между обещанията и рисковете
Напредъкът в компютърните технологии и развитието на цифровите технологии през последните десетилетия вече започнаха да предизвикват дълбоки трансформации в обществото като цяло и в неговата динамика. Новите дигитални инструменти променят лицето на комуникациите, публичната администрация, образованието, потреблението, личните взаимодействия и безброй други аспекти на всекидневния живот.
Освен това технологиите, използващи множество алгоритми, могат да извличат както цифрови следи, оставени в интернет, така и данни, които правят възможно контролирането на умствените и релационни навици на хората, често без тяхно знание, за търговски или политически цели, ограничавайки съзнателното упражняване на свободата им на избор. Наистина, в пространство като мрежата, което се характеризира с претоварване с информация, те могат да структурират потока от данни, според критерии за подбор, които не винаги са възприемани от потребителя.
Трябва да помним, че научните изследвания и технологичните иновации не са нито лишени от реалността, нито «неутрални», [4] а че са обект на културни влияния. Като изцяло човешки дейности, посоките, на които поемат и отразяват избори, обусловени от лични, социални и културни ценности, специфични за всяка епоха. Същото важи и за получените резултати: именно защото са плод на специфични човешки подходи към заобикалящия ги свят, те винаги имат етично измерение, тясно свързано с решенията на онези, които проектират експеримента и насочват продукцията към определени цели.
Същото важи и за формите на изкуствения интелект. Към днешна дата в света на науката и технологиите няма недвусмислено определение. Самият термин, вече навлязъл в общото общуване, обхваща разнообразие от науки, теории и техники, целящи да гарантират, че машините възпроизвеждат или имитират, при функционирането си, когнитивните способности на човешките същества. Изразяването в множествено число за „формите на интелигентност“ преди всичко ни позволява да подчертаем непреодолимата пропаст, която съществува между тези системи, колкото и удивителни и мощни да са те, и човешката личност: те в крайна сметка са „фрагментарни“, в смисъл, че те могат само да имитират или възпроизвеждат определени функции на човешкия интелект. Използването на множественото число подчертава, че тези съвсем различни системи винаги трябва да се разглеждат като „социотехнически системи“. Всъщност тяхното въздействие, независимо от основната технология, зависи не само от тяхната концепция, но и от целите и интересите на тези, които ги притежават и тези, които ги разработват, както и от ситуациите, в които се използват.
Следователно изкуственият интелект трябва да се разбира като галактика от различни реалности и не можем да приемем априори, че неговото развитие благоприятно ще допринесе за бъдещето на човечеството и за мира между народите. Такъв положителен резултат ще бъде възможен само, ако покажем, че сме способни да действаме отговорно и да зачитаме основните човешки ценности такива като «включване, прозрачност, сигурност, справедливост, поверителност и надеждност». [5]
Както и не е достатъчно да се приеме, че тези, които проектират алгоритми и цифрови технологии, се ангажират да действат етично и отговорно. Органите трябва да бъдат подкрепени или, ако е необходимо създадени, за да разглеждат възникващи етични проблеми, както и да защитават правата на тези, които използват формите на изкуствен интелект или са повлияни от тях. [6]
Следователно огромното разширяване на технологиите трябва да бъде придружено от подходящо обучение за отговорност при тяхното развитие. Свободата и мирното съжителство са застрашени, когато човешките същества се поддадат на изкушението на егоизма, личния интерес, алчността и жаждата за власт. Ето защо ние имаме задължението да разширим нашия мироглед и да насочим научно-техническите изследвания към мира и общото благо, в служба на цялостното развитие на човека и общността. [7]
Вътрешното достойнство на всеки човек и братството, което ни свързва като членове на едно човешко семейство, трябва да останат в основата на развитието на новите технологии и да служат като неоспорими критерии за оценката им преди тяхното използване, така че да може да се осъществи цифров прогрес, съобразямайки се със справедливостта, който да допринася за каузата на мира. Технологичното развитие, което не води до подобряване на качеството на живот на цялото човечество, а напротив, изостря неравенствата и конфликтите, никога не може да се счита за истински напредък. [8]
Изкуственият интелект ще става все по-значим. Предизвикателствата, които поставя са технически, но и антропологични, образователни, социални и политически. Той обещава например спестяване на човешки труд, по-ефективно производство, по-лесен транспорт и по-динамични пазари, както и революция в процесите на набиране, организиране и проверка на данни. Трябва да сме наясно с протичащите бързи трансформации и да ги управляваме по начин, който защитава основните човешки права, зачитайки институциите и законите, които насърчават цялостното човешко развитие. Изкуственият интелект трябва да обслужва най-високия човешки потенциал, както и най-извисените ни стремежи, а не да се конкурира с тях.
3. Технологията на бъдещето: машини, които се обучават сами
В различните си форми изкуственият интелект, базиран на техники за машинно обучение (machine learning), макар и все още в начален етап, вече въвежда значителни промени в структурата на обществата, оказвайки дълбоко влияние върху културите, социалното поведение и изграждането на мира.
Развития като машинно обучение или задълбочено обучение (deep learning) повдигат въпроси, които надхвърлят областта на технологиите и инженерството и се отнасят до разбирането, тясно свързано със смисъла на човешкия живот, с основните процеси на знанието и способността на ума да достигне до истината.
Способността на определени устройства да произвеждат синтактично и семантично съгласувани текстове, например, не е гаранция за надеждност. Твърди се, че те могат да „халюцинират“, тоест да генерират твърдения, които на пръв поглед изглеждат правдоподобни, но всъщност са неоснователни или издават предразсъдъци. Това поставя сериозен проблем, когато изкуственият интелект се използва в кампании за дезинформация, които разпространяват фалшиви новини и водят до нарастващо недоверие в средствата за комуникация. Поверителността, собствеността върху данните и интелектуалната собственост са други области, в които тези технологии представляват сериозни рискове, в допълнение към други отрицателни последици, свързани с тяхната злоупотреба, като дискриминация, намеса в изборните процеси, установяване на общество, което проследява и контролира хората, дигитално изключване и обостряне на индивидуализма, който все повече се откъсва от общността. Всички тези фактори рискуват да подхранят конфликти и да възпрепятстват мира.
4. Значението на границата в технократската парадигма
Нашият свят е твърде обширен, твърде разнообразен и твърде сложен, за да бъде напълно познат и класифициран. Човешкият ум никога няма да може да изчерпи неговото богатство, дори с помощта на най-модерните алгоритми. Те всъщност не предлагат гарантирани прогнози за бъдещето, а само приблизителни статистики. Не всичко може да се предвиди, не всичко може да се изчисли. В крайна сметка «реалността превъзхожда идеята» [9] и колкото и невероятни да са способностите ни за изчисления, винаги ще има недостъпен участък, който ще избегне всеки опит за количествено определяне.
Освен това голямото количество данни, анализирани от изкуствения интелект, само по себе си не е гаранция за безпристрастност. Когато алгоритмите екстраполират нформация, те винаги рискуват да я изкривят, възпроизвеждайки несправедливостта и предразсъдъците на средата, от която идват. Колкото по-бързи и по-сложни стават, толкова по-трудно е да се разбере защо са довели до даден резултат.
Интелигентните машини могат да изпълняват възложените им задачи с нарастваща ефективност, но целта и значението на техните операции ще продължат да се определят или разрешават от човешки същества със собствена вселена от ценности. Рискът е критериите, които стоят в основата на определени избори, да станат по-неясни, отговорността за вземане на решения да бъде скрита и производителите да избегнат задължението да действат за доброто на общността. По известен начин това се благоприятства от технократската система, която съчетава икономиката с технологиите и предпочита критерия за ефективност, като е склонна да игнорира всичко, което не е свързано с нейните непосредствени интереси. [10]
Това трябва да ни накара да се замислим върху един аспект, много често пренебрегван в съвременния манталитет, технократичен и търсещ ефективност, но решаващ за личното и социално развитие: „усещането за граница“. Наистина, човешкото същество, смъртно по дефиниция, мислещо че може да надскочи всички граници, благодарение на технологията, рискува с манията да иска да контролира всичко, губейки контрол над себе си; в търсене на абсолютна свобода, да попадне в спиралата на една технологична диктатура. Да признае и да приеме собствените си граници на създание е съществено условие за човека, за да получи или приеме по-добре пълнотата като дар. Напротив, в идеологическия контекст на технократска парадигма, белязана от прометеевска презумпция за самодостатъчност, неравенствата биха могли да нараснат непропорционално, знанието и богатството да се натрупват в ръцете на малцина, със сериозни рискове за демократичните общества и мирното съжителство. [11]
5. Актуални теми по въпросите на етиката
В бъдеще надеждността на кандидата за банков кредит, годността на дадено лице за работа, възможността за рецидив на осъдено лице или пък правото на получаване на политическо убежище или социална помощ биха могли да бъдат определяни от системи с изкуствен интелект. Оказва се, че на тези системи им липсват различни нива на медиация, което особено излага човека на форми на предразсъдъци и дискриминация: системните грешки могат лесно да се умножат, създавайки не само несправедливости в отделни случаи, но също така, чрез ефекта на доминото, реални форми на социално неравенство .
В допълнение, формите на изкуствен интелект понякога изглеждат способни да влияят върху решенията на индивидите чрез предварително определени опции, свързани със стимули и възпиращи стимули, или чрез системи за регулиране на личните избори, базирани върху организацията на информацията. Тези форми на манипулация или социален контрол изискват щателно внимание и надзор и носят ясна правна отговорност от страна на производителите, на тези, които ги наемат, и на държавните органи.
Прибягването до автоматични процеси, които категоризират индивидите, например чрез широко разпространено използване на наблюдение или приемане на системи за социално кредитиране, също би могло да окаже дълбоко въздействие върху структурата на обществото, като създаде неподходящи класификации сред гражданите. Тези изкуствени процеси на класифициране биха могли да доведат и до властови конфликти, тъй като не засягат само виртуални получатели, но и хора от плът и кръв. Фундаменталното зачитане на човешкото достойнство предполага отказ да се позволи уникалността на личността да бъде идентифицирана чрез набор от данни. Не трябва да се позволява на алгоритмите, които определят как да разбираме човешките права, да оставят настрана основните ценности като състрадание, милосърдие и прошка или да елиминират възможността индивидът да се промени, като остави миналото зад гърба си.
В този контекст не можем да не вземем предвид въздействието на новите технологии в областта на труда: работните места, които някога са били изключително запазена територия за човешкия труд, бързо се поглъщат от индустриалните приложения на „изкуствения интелект“. И тук рискът от непропорционално предимство за малцина в ущърб на обедняването на мнозинството е значителен. Зачитането на достойнството на работниците и значението на заетостта за икономическото благосъстояние на индивидите, семействата и обществата, сигурността на труда и справедливото заплащане би трябвало да бъдат основен приоритет за международната Общност, тъй като тези форми на технологии навлизат все по-дълбоко в работните места .
6. Ще превърнем ли мечовете в рала?
Гледайки света около нас, тези дни не можем да избягаме от сериозните етични въпроси, свързани с оръжейния сектор. Способността да се провеждат военни операции чрез системи за дистанционно управление доведе до занижаване във възприемането на опустошението, което те причиняват, както и в отговорността за тяхното използване, което допринася за още по-хладен и безпристрастен подход към огромната трагедия на войната. Изследването на нововъзникващи технологии в областта на „смъртоносните автономни оръжейни системи“, включително военното използване на изкуствен интелект, са въпрос на сериозна етична загриженост. Автономните оръжейни системи никога не могат да бъдат морално отговорни субекти: изключителният човешки капацитет за морална преценка и вземане на етични решения е повече от сложен набор от алгоритми и този капацитет не може да бъде сведен до програмиране на машина, която, макар и „интелигентна“, винаги си остава машина. Ето защо е наложително да се осигури адекватен, смислен и последователен човешки надзор върху оръжейните системи.
Не можем също така да пренебрегнем възможността най-усъвършенстваните оръжия да попаднат в грешни ръце, например за улесняване на терористични атаки или интервенции, насочени към дестабилизиране на легитимни държавни институции. Накратко, светът всъщност не се нуждае от нови технологии, които да допринасят за несправедливото развитие на пазара и търговията с оръжия, насърчавайки лудостта на войната. При това не само интелектът, но и самото човешко сърце рискува да стане все по-„изкуствено“. Най-модерните технически приложения не трябва да се използват за улесняване на насилственото разрешаване на конфликти, а за проправяне на пътя към мира.
В по-позитивна перспектива, ако изкуственият интелект се използва за насърчаване на цялостното човешко развитие, той би могъл да въведе важни иновации в селското стопанство, образованието и културата, да подобри стандарта на живот на нациите и на цели народи, както и израстването на човешкото братство и социалното приятелство. В крайна сметка начинът, по който го използваме, за да включим последните, тоест най-слабите и най-нуждаещите се братя и сестри, е показателна мярка за нашата човечност.
Човешката гледна точка и желанието за по-добро бъдеще за нашия свят водят до необходимостта от интердисциплинарен диалог, насочен към етичното развитие на алгоритми – algor-etica –, където ценностите ръководят пътищата на новите технологии. [12] Етичните въпроси трябва да се разглеждат от самото начало на изследването, както и във фазите на тестване, проектиране, производство, разпространение и маркетинг. Това е подход към етиката на концепцията, в която образователните институции и оторизираните лица играят жизненоважна роля.
7. Предизвикателства пред образованието
Развитието на технология, която зачита и служи на човешкото достойнство, има ясни последици за образователните институции и за света на културата. Умножавайки възможностите за комуникация, цифровите технологии ни позволиха да се срещаме по нови начини. Въпреки това остава необходимо постоянното размишление върху типа взаимоотношения, към които се отправяме. Младите хора растат в културна среда, пропита с технологии и това може само да постави под въпрос методите на преподаване и обучение.
Обучението в използването на форми на изкуствен интелект би трябвало да има за цел преди всичко да насърчава критичното мислене. Необходимо е потребителите от всички възрасти, но особено младите хора, да развиват способност за разграничаване при използването на данни и съдържание, събрани в мрежата или произведени от системи с изкуствен интелект. Училищата, университетите и научните общества са призовани да помогнат на учениците и професионалистите да се приспособят към социалните и етични аспекти на развитието и използването на технологиите.
Обучението за използване на нови комуникационни инструменти би трябвало да вземе предвид не само дезинформацията и фалшивите новини, но и тревожното възраждане на «страховете на предците (древните опасения) […], които са успели да се скрият и укрепят зад новите технологии». [13] За съжаление, отново трябва да преборим «изкушението да създаваме култура на стените, издигайки стени, възпрепятстващи срещата с други култури, и с други хора» [14] – с развитието на мирно и братско съществуване.
8. Предизвикателства пред развитието на международното право
Предвид глобалния обхват на изкуствения интелект е очевидно, че наред с отговорността на суверенните държави да регулират вътрешното му използване, международните организации могат да играят решаваща роля в сключването на многостранни споразумения и в координирането на тяхното прилагане и изпълнение. [15] В това отношение призовавам Общността на нациите да работят заедно за приемане на обвързващ международен договор, който регулира развитието и използването на изкуствения интелект в множеството му форми. Целта на регулирането, разбира се, би трябвало да бъде не само предотвратяване на лоши практики, но и насърчаване на добри практики, чрез стимулиране на нови и креативни подходи, улеснявайки лични и колективни инициативи. [16]
В крайна сметка, в търсенето на регулаторни модели, които могат да осигурят етично ръководство за разработчиците на цифрови технологии, е от съществено значение да се идентифицират човешките ценности, които трябва да бъдат в основата на ангажимента на обществата, да се формулират, приемат и прилагат в необходимите законови рамки. Работата по изготвянето на етични насоки за производството на форми на изкуствен интелект не може да пренебрегне разглеждането на по-дълбоки въпроси относно смисъла на човешкото съществуване, защитата на основните човешки права, както и стремежът към мир и справедливост. Този процес на етично и правно разбиране може да се окаже ценна възможност за споделен размисъл върху ролята, която технологията би трябвало да има в нашия индивидуален и общностен живот, и как нейното използване може да допринесе за създаването на по-справедлив и по-хуманен свят. Ето защо, в дебатите относно регулирането на изкуствения интелект, гласовете на всички заинтересовани страни би трябвало да бъдат взети под внимание, включително на бедните, маргинализираните и на останалите, които често остават игнорирани в глобалните процеси за вземане на решения.
* * * * *
Надявам се, че това размишление ще насърчава, за да може да се гарантира, че напредъкът в развитието на формите на изкуствен интелект в крайна сметка служи на каузата на човешкото братство и мир. Това не е отговорност на малцина, а на цялото човешко семейство. Мирът всъщност е плод на взаимоотношения, които признават и приемат другия с присъщото му достойнство, както и на сътрудничество и ангажираност в търсене на цялостното развитие на всички хора и всички народи.
Молитвата ми в началото на новата година е бързото развитие на формите на изкуствен интелект да не увеличи прекалено многобройните неравенства и несправедливости, които вече съществуват в света, а да допринесе да се сложи край на войните и конфликтите, както и за облекчаване на многото форми на страдание, които поразяват човешкото семейство. Нека вярващите християни, вярващите от различни религии и мъжете и жените с добра воля да си сътрудничат в хармония, за да използват възможностите и да се изправят пред предизвикателствата, поставени от дигиталната революция, за да осигурят на бъдещите поколения един по-солидарен, справедлив и мирен свят.
Ватикана, 8 декември 2023 година
ПАПА ФРАНЦИСК
[1] N. 33.
[2] виж пак там, т. 57.
[3] виж Енцикликата. Laudato si’ (24 май 2015), т. 104.
[4] виж пак там., т. 114.
[5] Аудиенция за участниците в срещата “Minerva Dialogues” (27 март 2023).
[6] виж пак там
[7] виж Послание на Изпълнителния Председател на “Световният Икономически Форум” в Davos-Klosters (12 януари 2018).
[8] виж Енцикликата Laudato si’, т. 194 ; Речта към участниците в Семинара “Общотоблаго във виртуалната ера”(27 септември 2019).
[9] Апостолическо насърчение Evangelii gaudium (24 ноември 2013), т. 233.
[10] виж Енцикликата Laudato si’, т. 54.
[11] виж Речта към участниците в Пленарната Асамблея на Папската Академия за Живота (28 февруари 2020).
[12] виж пак там
[13] виж Енцикликата Fratelli tutti (3 октомври 2020), т. 27.
[15] виж пак там, т. 170-175.
[16] виж Енцикликата Laudato si’, т. 177.
Copyright © Dicastero per la Comunicazione – Libreria Editrice Vaticana
Превод: Йорданка Гьокова