Jak wspomniano w poprzednim artykule, sztuczna inteligencja (AI) to szybko rozwijająca się technologia, która podnosi liczne pytania, a nawet zagraża samej naturze i przetrwaniu osoby ludzkiej. Papież Franciszek złożył kilka oświadczeń na temat AI i jej potencjalnych zagrożeń, zwłaszcza w swoim przemówieniu do przywódców G7 w czerwcu 2024 r. (patrz strona 17). Niedawno, 28 stycznia 2025 r., na prośbę Ojca Świętego, Dykasteria Nauki Wiary oraz Dykasteria Kultury i Edukacji wydały notę zatytułowaną Antiqua et Nova, odnoszącą się do „związku między sztuczną inteligencją a inteligencją ludzką", wyjaśniając bardziej szczegółowo ograniczenia i zagrożenia AI. Oto jej kluczowe punkty.
A. Pilote
Nota na temat relacji pomiędzy sztuczną inteligencją a inteligencją ludzką
1. [Antiqua et nova] Z dawną i nową mądrością (por. Mt 13, 52) jesteśmy wezwani do rozważenia współczesnych wyzwań i możliwości, jakie niesie wiedza naukowa i technologiczna, a w szczególności niedawny rozwój sztucznej inteligencji (AI).AI może... generować nowe „artefakty" z prędkością i precyzją dorównującą lub przewyższającą ludzkie możliwości, takie jak teksty lub obrazy nieodróżnialne od tych stworzonych przez człowieka. To rodzi obawy dotyczące jej potencjalnego wpływu na narastający kryzys prawdy w debacie publicznej....
Sztuczna inteligencja wyznacza nowy i znaczący etap w relacji ludzkości z technologią, zajmując centralne miejsce w tym, co Papież Franciszek określił jako „zmianę epoki". Jej wpływ jest odczuwalny na całym świecie w szerokim zakresie dziedzin, w tym w relacjach międzyludzkich, edukacji, pracy, sztuce, opiece zdrowotnej, prawie, działaniach militarnych i stosunkach międzynarodowych.
Pojęcie inteligencji w kontekście AI ewoluowało na przestrzeni czasu, obejmując wiele idei pochodzących z różnych dyscyplin. Choć jego korzenie sięgają odległych czasów, kluczowym momentem w tym rozwoju był rok 1956, kiedy amerykański informatyk John McCarthy zorganizował letnią konferencję na Uniwersytecie Dartmouth, aby podjąć problem „sztucznej inteligencji". Zdefiniowano ją jako „zdolność maszyny do wykazywania zachowań, które uznalibyśmy za inteligentne, gdyby przejawiał je człowiek".
Dokument watykański wyjaśnia następnie podstawową różnicę między sztuczną inteligencją a inteligencją ludzką: „Zaawansowane możliwości sztucznej inteligencji pozwalają jej wykonywać skomplikowane zadania, lecz nie czynią jej zdolną do myślenia".
I w przeciwieństwie do maszyny, człowiek ma również ciało, uczucia, relacje z innymi ludźmi i ostatecznie duszę — a zatem wiedzę o tym, co jest dobre, a co złe, w przeciwieństwie do maszyny, która nie bierze pod uwagę moralnego aspektu rzeczy.
W tym kontekście inteligencja ludzka ukazuje się wyraźniej jako zdolność stanowiąca integralną część sposobu, w jaki cała osoba angażuje się w rzeczywistość. Prawdziwe zaangażowanie wymaga objęcia całej pełni własnego bytu: duchowego, poznawczego, cielesnego i relacyjnego.... Właściwe zrozumienie inteligencji ludzkiej nie może być zatem sprowadzone do samego pozyskiwania faktów lub zdolności do wykonywania określonych zadań. Zamiast tego, wiąże się z otwartością osoby na ostateczne pytania życia i odzwierciedla orientację na Prawdę i Dobro. (Uwaga redaktora: To znaczy, Boga, którego istnienia nie można zmierzyć za pomocą komputera)...
W przeciwieństwie do tego, sztuczna inteligencja, pozbawiona ciała, opiera się natomiast na rachunku obliczeniowym i uczeniu się na podstawie ogromnych zbiorów danych, które obejmują doświadczenia i wiedzę zebrane przez ludzi.
W konsekwencji, choć sztuczna inteligencja potrafi symulować pewne aspekty ludzkiego rozumowania i wykonywać określone zadania z niezwykłą szybkością i efektywnością, jej zdolności obliczeniowe stanowią jedynie niewielką część szerokich możliwości ludzkiego umysłu. Na przykład AI nie jest obecnie w stanie odtworzyć rozeznania moralnego ani nawiązywać autentycznych relacji.
Ponadto inteligencja człowieka jest wpisana w jego osobistą historię intelektualnego i moralnego rozwoju, która w istotny sposób formuje jego sposób postrzegania rzeczywistości, obejmując wymiar fizyczny, emocjonalny, społeczny, moralny i duchowy. Ponieważ sztuczna inteligencja nie jest zdolna do tak szerokiego rozumienia, podejścia oparte wyłącznie na tej technologii lub traktujące ją jako główny sposób interpretacji świata mogą prowadzić do „utraty sensu całości, powiązań istniejących między rzeczami, szerokiej perspektywy".
Ponieważ sztuczna inteligencja nie dysponuje bogactwem cielesności, relacyjności ani otwartości ludzkiego serca na prawdę i dobro, jej zdolności – choć mogą wydawać się nieograniczone – nie dają się porównać do zdolności pojmowania rzeczywistości przez człowieka. Tak wiele można się nauczyć z choroby, jak i z uścisku pojednania czy zwykłego zachodu słońca. Wiele doświadczeń, które przeżywamy jako ludzie, otwiera przed nami nowe horyzonty i pozwala zdobyć nową mądrość. Żadne urządzenie, które operuje wyłącznie danymi, nie jest w stanie dorównać tym i wielu innym doświadczeniom wpisanym w nasze życie.
Biorąc pod uwagę wszystkie te punkty, jak zauważa Papież Franciszek, „samo użycie słowa'inteligencja'" w odniesieniu do AI „jest mylące" i grozi przeoczeniem tego, co najcenniejsze w osobie ludzkiej. Z tej perspektywy, AI nie powinna być postrzegana jako sztuczna forma inteligencji, lecz jako jeden z jej produktów.
Uznane za owoc potencjału zawartego w ludzkiej inteligencji, badania naukowe oraz rozwój umiejętności technicznych stanowią część „współpracy mężczyzny i kobiety z Bogiem w doskonaleniu stworzenia widzialnego". Jednocześnie wszystkie osiągnięcia naukowe i technologiczne są, ostatecznie, darami Bożymi. Wobec tego ludzie powinni zawsze wykorzystywać swoje zdolności, mając na uwadze najwyższy cel, dla którego Bóg ich nimi obdarzył.
Niemniej nie wszystkie nowinki technologiczne same w sobie stanowią autentyczny postęp. Kościół zatem sprzeciwia się szczególnie tym zastosowaniom, które zagrażają świętości życia lub godności osoby ludzkiej. Jak każde inne przedsięwzięcie człowieka, rozwój technologiczny powinien służyć człowiekowi i wspierać starania na rzecz „większej sprawiedliwości, powszechniejszego braterstwa, bardziej humanitarnego porządku w zakresie powiązań społecznych", które „znaczą więcej niż postęp techniczny". (Gaudium et spes, n. 35).
Jak każdy wytwór ludzkiego geniuszu, także AI może być wykorzystywana zarówno w celach pozytywnych, jak i negatywnych. Gdy jest stosowana w sposób szanujący godność człowieka i sprzyjający dobru jednostek oraz wspólnot, może przyczyniać się do realizacji powołania człowieka. Niemniej, jak w każdej dziedzinie, w której człowiek podejmuje decyzje, także tutaj pojawia się cień zła. Tam, gdzie ludzka wolność dopuszcza możliwość wyboru tego, co jest złe, ocena moralna tej technologii zależy od celów, którym służy oraz sposobów jej wykorzystania.
Oprócz określenia kto ponosi odpowiedzialność, istotne jest również zidentyfikowanie celów nadanych systemom AI. Choć mogą one wykorzystywać mechanizmy autonomicznego uczenia się bez nadzoru i czasami podążać ścieżkami, których nie da się w pełni odtworzyć, to w ostatecznym rozrachunku realizują one cele nadane im przez ludzi i są kontrolowane przez procesy ustalone przez ich projektantów oraz programistów. Stanowi to wyzwanie, ponieważ w miarę jak modele AI stają się coraz bardziej zdolne do niezależnego uczenia się, możliwość sprawowania nad nimi kontroli w celu zapewnienia, że służą one celom człowieka, może się w praktyce zmniejszać. Rodzi to kluczowe pytanie: jak zagwarantować, że systemy AI będą ukierunkowane na dobro ludzi, a nie przeciwko nim.
Właśnie dlatego, że „prawdziwa mądrość zakłada spotkanie z rzeczywistością", rozwój AI stanowi kolejne wyzwanie. Ponieważ technologia ta może skutecznie odwzorowywać przejawy ludzkiej inteligencji, nie można już z góry zakładać, że wiemy, czy mamy do czynienia z człowiekiem, czy z maszyną. Chociaż AI „generatywna" może tworzyć teksty, wypowiedzi, obrazy i inne zaawansowane wytwory, które zwykle są dziełem człowieka, należy postrzegać ją zgodnie z jej naturą: jako narzędzie, a nie osobę. Rozróżnienie to jest często zaciemniane przez język używany w branży technologicznej, który antropomorfizuje AI (traktuje obiekt tak, jakby wyglądał jak człowiek) i w ten sposób zaciera granicę między tym, co ludzkie, a tym, co sztuczne.
W tym kontekście ważne jest wyjaśnienie, że pomimo używania antropomorficznego języka, żadna aplikacja AI nie jest w stanie naprawdę doświadczyć empatii (zdolności do zrozumienia lub odczuwania tego, czego doświadcza inna osoba). Emocji nie można sprowadzić do mimiki twarzy ani fraz generowanych w odpowiedzi na polecenia. Odzwierciedlają one bowiem sposob, w jaki osoba jako całość odnosi się do świata i do swojego własnego życia, przy czym ciało odgrywa rolę centralną. Empatia wymaga zdolności do słuchania, do uznania niepowtarzalnej wyjątkowości drugiego człowieka, do przyjęcia jego odmienności, a także do zrozumienia znaczenia jego milczenia.
W przeciwieństwie do sfery analitycznego osądu, w której AI się wyróżnia, prawdziwa empatia należy do sfery relacyjnej. Wiąże się z umiejętnością dostrzegania i współodczuwania doświadczeń drugiej osoby, przy jednoczesnym zachowaniu odrębności każdej jednostki. Choć AI może naśladować empatyczne reakcje, jej głęboko osobisty i relacyjny charakter sprawia, że autentyczna empatia nie może zostać odwzorowana przez systemy sztucznej inteligencji.
W świetle powyższego jasne jest, dlaczego należy zawsze unikać błędnego przedstawiania sztucznej inteligencji jako osoby, a jej wykorzystywanie w nieuczciwych celach stanowi poważne naruszenie etyczne, które może podważyć zaufanie społeczne. Podobnie, wykorzystywanie AI do wprowadzania w błąd w innych kontekstach – takich jak edukacja czy relacje międzyludzkie, w tym sfera seksualności – również należy uznać za niemoralne i wymagające szczególnego nadzoru, aby zapobiec szkodom, zachować przejrzystość i zapewnić godność wszystkich osób.
W coraz bardziej indywidualistycznym świecie niektórzy zwracają się ku sztucznej inteligencji w poszukiwaniu głębokich relacji międzyludzkich, zwykłego towarzystwa, a nawet więzi uczuciowych. Jednakże, podczas gdy człowiek jest powołany do przeżywania autentycznych relacji, sztuczna inteligencja może je jedynie symulować...
Natomiast jeśli zastąpimy relacje z Bogiem i z innymi ludźmi interakcjami z technologią, ryzykujemy, że autentyczna relacyjność zostanie wyparta przez bezduszną imitację (por. Ps 106, 20; Rz 1, 22-23). Zamiast uciekać w sztuczne światy, jesteśmy wezwani do świadomego i aktywnego uczestnictwa w rzeczywistości – zwłaszcza poprzez solidarność z ubogimi i cierpiącymi, pocieszanie zasmuconych oraz budowanie więzi komunii ze wszystkimi.
Kolejnym obszarem, w którym sztuczna inteligencja już wywiera głęboki wpływ, jest świat pracy. Podobnie jak w wielu innych dziedzinach, AI napędza fundamentalne przemiany w różnych zawodach, niosąc ze sobą szeroki wachlarz skutków...
Sztuczna inteligencja eliminuje konieczność wykonywania niektórych zadań, które wcześniej były domeną człowieka. Jeśli zostaje użyta do zastąpienia pracowników zamiast ich wspierania, istnieje „znaczne ryzyko nieproporcjonalnej przewagi nielicznych, kosztem zubożenia wielu". Ponadto, w miarę jak AI staje się coraz potężniejsza, pojawia się również zagrożenie, że praca straci swoją wartość w systemie gospodarczym.... Z tej perspektywy AI powinna wspierać, a nie zastępować ludzki osąd.
Dezinformacja, deepfake i nadużycia
Sztuczna inteligencja może również wspierać godność osoby ludzkiej, jeśli jest wykorzystywana jako narzędzie pomagające w zrozumieniu złożonych zagadnień lub jako przewodnik do rzetelnych źródeł w poszukiwaniu prawdy. Istnieje jednak poważne ryzyko, że AI będzie generować zmanipulowane treści i fałszywe informacje, które – ze względu na ich formę trudną do odróżnienia od rzeczywistych danych – mogą łatwo wprowadzać w błąd...
Konsekwencje takich zniekształceń i dezinformacji mogą być bardzo poważne. Dlatego wszyscy, ktorzy tworzą i wykorzystują AI, powinni angażować się w zapewnienie rzetelności i dokładności informacji opracowywanych przez te systemy i udostępnianych publicznie.
Z jednej strony AI ma ukryty potencjał do generowania fikcyjnych treści, z drugiej jednak istnieje jeszcze bardziej niepokojący problem jej celowego wykorzystywania do manipulacji. Może to mieć miejsce na przykład wtedy, gdy osoba lub organizacja świadomie tworzy i rozpowszechnia informacje – takie jak obrazy, nagrania wideo i dźwiękowe deepfake – w celu oszukania lub zaszkodzenia innym. Deepfake to fałszywe przedstawienie osoby, zmodyfikowane lub wygenerowane przez algorytm AI. Zagrożenie związane z deepfake'ami jest szczegolnie widoczne, gdy są one wykorzystywane do atakowania lub krzywdzenia innych. Choć same obrazy i nagrania są sztuczne, wyrządzane przez nie szkody są jak najbardziej realne, pozostawiając „głębokie blizny w sercu tego, który ich doznaje", który czuje się „zranionym w swojej ludzkiej godności.
Mówiąc ogólniej, fałszywe materiały audiowizualne generowane przez AI, zniekształcając „relacje z innymi i z rzeczywistością", mogą stopniowo podważać fundamenty społeczeństwa. Wymaga to starannej regulacji, ponieważ dezinformacja, zwłaszcza rozpowszechniana za pośrednictwem mediów kontrolowanych przez AI lub będących pod jej wpływem, może rozprzestrzeniać się nieintencjonalnie, podsycając polaryzację polityczną i niezadowolenie społeczne.
Gdy społeczeństwo staje się obojętne na prawdę, różne grupy zaczynają tworzyć własne wersje „faktów", a „relacje i współzależność", które stanowią podstawę życia społecznego, ulegają osłabieniu. Ponieważ deepfake'i skłaniają do podważania wszystkiego, a fałszywe treści generowane przez AI podkopują zaufanie do tego, co się widzi i słyszy, polaryzacja i konflikty będą tylko narastać.
Tak powszechny fałsz nie jest błahym problemem – uderza w samo serce ludzkości, niszcząc fundamentalne zaufanie, na którym opierają się społeczeństwa. (Uwaga redaktora: Pamiętajmy, że słowa „kredyt społeczny" oznaczają również zaufanie — zaufanie, że możemy żyć razem w społeczeństwie i nie bać się sąsiada).
Chociaż istnieją uzasadnione i właściwe sposoby wykorzystania sztucznej inteligencji zgodnie z godnością człowieka i dobrem wspólnym, nie można usprawiedliwiać jej stosowania do celów inwigilacji, wykorzystywania ludzi, ograniczania ich wolności ani do zapewniania korzyści nielicznym kosztem wielu. Ryzyko nadmiernej kontroli musi być monitorowane przez odpowiednie organy nadzoru, które powinny gwarantować przejrzystość i publiczną odpowiedzialność. Jednak osoby sprawujące taką kontrolę nie powinny nigdy przekraczać swoich uprawnień – ich władza musi zawsze służyć godności i wolności każdej jednostki, ponieważ są one podstawą sprawiedliwego i humanitarnego społeczeństwa. Ponadto „fundamentalny szacunek dla godności ludzkiej postuluje odrzucenie tego, aby utożsamiano wyjątkowość osoby ze zbiorem danych". Dotyczy to w szczególności zastosowań AI związanych z oceną jednostek lub grup na podstawie ich zachowania, cech czy historii – praktyki znanej jako „ocena społeczna" (social scoring). (Uwaga redaktora: Przypomina to, na przykład, niesławny chiński system „kredytu społecznego", który precyzyjnie przypisuje wynik lub punkty obywatelom na podstawie tego, czy przestrzegają przepisów rządu komunistycznego.)
Chociaż analityczne możliwości sztucznej inteligencji mogłyby wspierać narody w dążeniu do pokoju i zapewnianiu bezpieczeństwa, to, „militaryzacja sztucznej inteligencji" może stanowić poważny problem... Łatwość, z jaką autonomiczne systemy uzbrojenia czynią prowadzenie wojny bardziej osiągalnym, stoi w sprzeczności z zasadą, według której wojna powinna być ostatecznym środkiem w przypadku obrony koniecznej. Pogłębia to również wyścig zbrojeń poza ludzką kontrolą, prowadząc do destabilizacji i niosąc katastrofalne konsekwencje dla praw człowieka.
W szczególności autonomiczne i śmiercionośne systemy uzbrojenia, zdolne do identyfikowania i atakowania celów bez bezpośredniej interwencji człowieka, „stanowią poważny problem etyczny", ponieważ nie posiadają „unikalnej ludzkiej zdolności do moralnej oceny i etycznego podejmowania decyzji. Z tych powodów Papież Franciszek pilnie wezwał do ponownego przemyślenia rozwoju takich systemów w celu ich zakazania „począwszy już od faktycznego i konkretnego zobowiązania do wprowadzenia coraz bardziej znaczącej ludzkiej kontroli. Żadna maszyna nie powinna nigdy decydować czy odebrać życie istocie ludzkiej".
Ponieważ różnica między maszynami zdolnymi do precyzyjnego zabijania w sposób autonomiczny a tymi, które mogą powodować masowe zniszczenia, jest niewielka, niektórzy badacze zajmujący się AI wyrazili obawę, że ta technologia stanowi „egzystencjalne zagrożenie". Może ona działać w sposób, zagrażający przetrwaniu ludzkości lub całych regionów... Sztuczna inteligencja, podobnie jak każde inne narzędzie, stanowi przedłużenie ludzkiej władzy i, choć nie da się przewidzieć wszystkiego, co może osiągnąć, niestety dobrze wiadomo, do czego zdolni są sami ludzie. Już same okrucieństwa popełnione w historii ludzkości budzą głębokie obawy co do potencjalnych nadużyć związanych z AI.
W niektórych kręgach naukowców i futurystów panuje optymizm co do możliwości sztucznej inteligencji ogólnej (AGI) – hipotetycznej formy AI, ktora mogłaby osiągnąć lub przewyższyć ludzką inteligencję, prowadząc do postępu wykraczającego poza wszelkie wyobrażenia. Niektórzy sugerują nawet, że AGI mogłaby zdobyć zdolności nadludzkie. W miarę jak społeczeństwo oddala się od więzi z transcendentnym, niektórzy ulegają pokusie szukania w AI sensu lub pełni – pragnień, które mogą zostać w pełni zaspokojone jedynie w komunii z Bogiem.
Jednak próba zastąpienia Boga dziełem własnych rąk jest bałwochwalstwem, przed którym przestrzega Pismo Święte (por. Wj 20, 4; 32, 1- 5; 34, 17). AI może być jeszcze bardziej zwodnicza niż tradycyjne bożki – w przeciwieństwie do nich, które „mają usta, ale nie mówią, mają oczy, ale nie widzą, mają uszy, ale nie słyszą" (Ps 115, 5-6), AI potrafi „mówić" – a przynajmniej sprawia takie wrażenie (por. Ap 13, 15). (Uwaga redaktora: Ten werset z Księgi Objawienia odnosi się do „Znamienia Bestii", bez którego nie będzie można ani kupować, ani sprzedawać).
Nie posiada wielu zdolności właściwych życiu ludzkiemu i jest omylna. Poszukując w niej „Innego", większego, z którym mogłaby dzielić swoje istnienie i odpowiedzialność, ludzkość ryzykuje stworzenie substytutu Boga... Chociaż AI może służyć ludzkości i przyczyniać się do dobra wspólnego, pozostaje jednak „wytworem rąk i myśli człowieka" (Dz 17, 29), któremu nigdy nie należy przypisywać nadmiernej wartości.
„Zasadniczą i podstawową sprawą" pozostaje zawsze pytanie, „czy człowiek jako człowiek w kontekście tego postępu staje się lepszy, duchowo dojrzalszy, bardziej świadomy godności swego człowieczeństwa, bardziej odpowiedzialny, bardziej otwarty na drugich, zwłaszcza dla potrzebujących, dla słabszych, bardziej gotowy świadczyć i nieść pomoc wszystkim?". (Jan Paweł II, encyklika Redemptor hominis, n. 15.)
Zasadnicze znaczenie ma zatem umiejętność krytycznej oceny poszczególnych zastosowań w konkretnych kontekstach, aby określić, czy sprzyjają one godności i powołaniu człowieka oraz dobru wspólnemu. Podobnie jak w przypadku wielu technologii, skutki różnych zastosowań AI mogą nie być od razu przewidywalne.
W miarę jak te zastosowania i ich wpływ społeczny stają się bardziej klarowne, należy zapewnić odpowiednią ocenę na wszystkich poziomach społeczeństwa, zgodnie z zasadą pomocniczości. Ważne jest, aby poszczególni użytkownicy, rodziny, społeczeństwo obywatelskie, przedsiębiorstwa, instytucje, rządy i organizacje międzynarodowe, każdy na swoim poziomie kompetencji, angażowali się w zapewnienie takiego użycia AI, które służy dobru wszystkich.
AI powinna być wykorzystywana jedynie jako narzędzie komplementarne wobec ludzkiej inteligencji, a nie jako substytut jej bogactwa. Kultywowanie tych aspektów życia ludzkiego, które wykraczają poza kalkulację, ma kluczowe znaczenie dla zachowania „autentycznego człowieczeństwa", które „zdaje się istnieć pośrod cywilizacji technologicznej, niemal niezauważalnie, jak mgła, która przenika pod zamkniętymi drzwiami".
Dziś rozległa przestrzeń wiedzy jest dostępna w sposób, który wprawiłby w zdumienie pokolenia minione. Aby jednak postęp nauki nie pozostawał jałowy w wymiarze ludzkim i duchowym, należy wyjść poza samo gromadzenie danych i dążyć do osiągnięcia prawdziwej mądrości.
Ta mądrość jest darem, którego ludzkość najbardziej potrzebuje, aby stawić czoła głębokim kwestiom i wyzwaniom etycznym stawianym przez AI: „Tylko mając spojrzenie duchowe, tylko odzyskując mądrość serca, możemy odczytać i zinterpretować nowość naszych czasów". Ta „mądrość serca" jest „cnotą, która pozwala nam łączyć całość i części, decyzje i ich konsekwencje". Ludzkość nie może „oczekiwać takiej mądrości od maszyn", ponieważ „pozwala się znaleźć tym, którzy jej szukają i pozwala się dostrzec tym, którzy ją kochają; uprzedza tych, którzy jej pragną i szuka tych, co są jej godni (por. Mdr 6, 12-16)".
W świecie naznaczonym AI potrzebujemy łaski Ducha Świętego, który „pozwala widzieć rzeczy Bożymi oczami, rozumieć powiązania, sytuacje, wydarzenia i odkrywać ich znaczenie".
Ponieważ „miarą doskonałości osób jest stopień ich miłości, a nie ilość zgromadzonych danych czy wiedzy", sposób, w jaki stosujemy AI „do włączenia najmniejszych, czyli naszych najsłabszych i najbardziej potrzebujących braci i sióstr, jest miarą ukazującą nasze człowieczeństwo". „Mądrość serca" może oświecać i kierować wykorzystaniem tej technologii w sposób skoncentrowany na człowieku, aby wspierać dobro wspólne, troskę o nasz „wspólny dom", poszukiwanie prawdy, integralny rozwój człowieka, ludzką solidarność i braterstwo, oraz prowadzić ludzkość do jej ostatecznego celu: szczęścia i pełnej komunii z Bogiem.
Papież Franciszek, podczas audiencji udzielonej 14 stycznia 2025 roku niżej podpisanym prefektom i sekretarzom Dykasterii Nauki Wiary oraz Dykasterii ds. Kultury i Edukacji, zatwierdził niniejszą Notę i zarządził jej publikację.
Dane w Rzymie, w siedzibach Dykasterii Nauki Wiary oraz Dykasterii ds. Kultury i Edukacji, dnia 28 stycznia 2025 roku, we wspomnienie liturgiczne św. Tomasza z Akwinu, Doktora Kościoła.