《古今交融Antiqua et Nova》问答解读
2025-12-18 09:43:59 作者:刘铎
本《问答解读》依据教廷教义部及宗座文化与教育部于 2025 年 1 月 28 日 颁布的《古今交融 Antiqua et Nova》,并参考天主教澳门教区翻译的中文版本(2025 年 11 月出版)整理撰写。
全文采用问答形式,力求语言通俗、脉络清晰,帮助教友更容易理解文件的核心思想,并在现实生活中学会分辨,在人工智能时代守护人的尊严、良心与信仰。
一、前言(1-6号)
问1:这本《古今交融》一开始为什么要谈“古”与“新”?
答:
因为教会面对人工智能时,并不是从“科技潮流”出发,而是从信仰与人的本质出发。
“古”,指的是圣经启示、教会传统、关于“人是谁”的根本真理;
“新”,指的是当今迅速发展的人工智能和数字科技。
文件一开始就表明:
新的科技,不能脱离古老而恒久的智慧来理解。
否则,科技越先进,人越容易迷失方向。
问2:前言一开始就谈人工智能,是不是表示教会对AI感到害怕?
答:
不是害怕,而是负责。
教会清楚看到:
人工智能已经深刻影响人类生活,
而且速度极快、范围极广,
如果没有伦理与良心的引导,
后果将直接关系到人的尊严与生命价值。
因此,教会有责任在一开始就发声,
不是阻止科技,
而是提醒:科技必须服务于人,而不能支配人。
问3:文件为什么强调“人类智慧”和“人工智能”不能混为一谈?
答:
因为两者在本质上完全不同。
文件指出:
人工智能再先进,也只是人类设计出来的工具,
它可以处理信息、分析数据、模仿判断,
但它没有灵魂、没有自由、没有良心,也没有责任。
而人类的智慧,
来自天主所赋予的理性与自由,
能够分辨善恶,
并在良心中回应天主的召叫。
把人工智能当作“像人一样的存在”,
会模糊人真正独有的尊严。
问4:前言中为什么反复提到“人的尊严”?
答:
因为这是整本文件的核心。
文件从一开始就重申圣经的根本真理:
「天主照自己的肖像造了人。」(创1:27)
这意味着:
人的价值,不来自效率、能力、生产力或智能水平,
而是来自被天主所爱、被天主所创造的身份。
前言提醒我们:
如果社会开始用“有用没用”“值不值得”来衡量人,
那么科技就不再是祝福,
反而会成为伤害人的工具。
问5:前言提到人工智能带来“机遇”,具体指什么?
答:
文件并没有否定人工智能的正面价值。
前言承认:
在医疗、教育、科研、公共服务等方面,
人工智能确实有助于减轻人的负担、提高效率、促进合作。
但前言同时强调:
所有机遇,只有在尊重人的尊严、自由与责任时,才是真正的机遇。
否则,
技术的“方便”,
可能会换来人性的“流失”。
问6:为什么前言特别强调“责任始终属于人”?
答:
因为这是一个非常现实、也非常危险的倾向。
文件看到一种情况正在出现:
人越来越容易说——
“这是系统决定的”、
“是算法算出来的”、
“不是我个人的判断”。
前言明确指出:
无论科技多复杂,最终作决定、承担后果的,必须是人。
因为:
只有人有良心
只有人有自由
只有人要在天主面前交账
把责任交给机器,
并不会减轻人的责任,
反而会削弱人的道德感。
问7:前言1–6号整体想带领我们进入什么样的阅读态度?
答:
文件希望读者带着一种态度继续阅读:
不是单纯好奇科技,
而是反省自己作为人的位置;
不是问“我们能做什么”,
而是先问“我们该不该这样做”;
不是只看效率和成果,
而是始终记得:
人在一切发展之前,首先是天主的肖像。
二、何为人工智能呢?(7–12号)
问8:文件中所说的“人工智能”,究竟指的是什么?
答:
文件所说的人工智能,并不是一种“有生命的存在”,
而是指人类设计出来的一整套技术系统,
这些系统可以通过大量数据和算法,
执行一些原本需要人类思考才能完成的任务。
例如:
识别文字、图像和声音
分析信息、作出预测
按既定目标作出“看似聪明”的反应
但文件特别强调:
人工智能并不真正“理解”,
它只是按照人设定的方式处理信息。
问9:为什么文件强调人工智能是“人类智慧的产物”?
答:
因为人工智能并不是自己产生的,
它的一切来源都在于人。
文件指出:
是人设计了算法
是人选择了数据
是人决定了目标和用途
所以,无论人工智能多么复杂,
它都不能脱离人类智慧、意向与价值观而独立存在。
这提醒我们:
人工智能的“聪明”,
其实反映的是人类如何使用理性与权力。
问10:人工智能真的在“思考”吗?
答:
从文件的角度来看,并不是。
人工智能的运作方式,
是通过统计、概率和模式识别,
在大量数据中找出“最可能的答案”。
它并不知道:
什么是真
什么是善
什么是值得去做的事
文件清楚区分:
人类的思考,是有意义、有目的、有道德方向的;
人工智能的运作,是技术性的、工具性的。
问11:既然人工智能这么强,为什么还说它不是“主体”?
答:
因为人工智能没有主体性。
文件指出:
主体,意味着:
能自觉地认识自己
能自由地作出选择
能为自己的行为负责
人工智能不具备这些条件。
它不能说“我应该这样做”,
也不能承担“我做错了”的责任。
因此,人工智能永远是工具,
而不是行动者。
问12:文件为什么提醒我们不要把人工智能“拟人化”?
答:
因为一旦把人工智能当作“像人一样的存在”,
人就很容易犯两个错误:
第一,把判断权交出去,
让机器取代人的良心;
第二,降低对人的尊重,
用“机器标准”来衡量人。
文件提醒:
当人开始相信机器比人更“客观”、更“可靠”,
人的道德责任反而会被削弱。
问13:人工智能的发展,对人类来说是祝福还是威胁?
答:
文件在这里保持非常平衡的态度。
它承认:
人工智能可以成为人类的有力助手,
帮助人处理复杂事务,
减轻重复性劳动。
但同时也指出:
人工智能永远不能成为价值与意义的来源。
一旦人不再反省:
“这样做对人是否有益?”
“是否符合人的尊严?”
那么,原本是祝福的工具,
就可能变成伤害人的力量。
问14:在这一部分中,教会最想守住的是什么?
答:
不是技术细节,
而是一个清楚的分界线:
人工智能属于“人所制造的世界”,
而人属于“天主所创造的世界”。
这条分界线如果模糊,
人就容易忘记自己并非机器的一部分,
而是有灵魂、有良心、
并被召叫与天主建立关系的受造物。
三、哲学与神学传统中的智力(13–35 号)
问15:文件为什么要回到哲学与神学传统来谈“智力”?
答:
因为如果不先弄清楚“什么是真正的智力”,
就很容易把人工智能误当成“人类智慧的升级版”。
教会提醒我们:
在讨论人工智能之前,
必须先从哲学与神学中回答一个更根本的问题——
人类的智力究竟是什么?
问16:在哲学传统中,人类的智力被怎样理解?
答:
哲学认为,人类的智力不只是计算能力,
而是人认识真理、理解意义、追求善的能力。
它不仅处理“怎么做”,
更会追问“为什么要这样做”。
这说明,人类智力本身就带有方向性,
而不是中性的工具。
问17:为什么说人类智力与“追求真理”密切相关?
答:
因为人不仅想知道“事实”,
更渴望知道“真理”。
哲学传统认为:
人天生会追问存在的意义、生命的目的、善恶的根源。
这种追问,
远远超过任何算法可以处理的范围。
问18:神学传统如何看待人类的智力?
答:
神学认为,人类的智力是天主的恩赐,
是人按照天主肖像受造的一个重要标记。
正如圣经所说:
「天主照自己的肖像造了人。」(创 1:27)
人的理性,使人能够认识天主、回应天主、与天主对话。
问19:人的智力为什么不能脱离信仰来理解?
答:
因为人的智力不是封闭的,
而是指向超越自身的真理。
神学指出:
人真正的圆满,不只在于“知道很多”,
而在于认识真理本身——最终指向天主。
问20:文件为什么区分“理性”与“技术能力”?
答:
因为技术能力只关心“如何达成目标”,
而理性会反省“这个目标是否值得”。
人工智能擅长前者,
但只有人类理性才能进行后者。
如果把两者混为一谈,
人就容易把“能做的事”当成“该做的事”。
问21:在教会传统中,智力与道德有什么关系?
答:
在天主教传统中,
智力与道德密不可分。
真正的智力,
不仅认识事实,
还要服务于善。
圣多玛斯·亚奎那指出:
理性应当引导人的行为走向善。
问22:为什么文件强调“良心”在智力中的地位?
答:
因为良心是理性与道德相遇的地方。
良心不是感觉,
而是人在理性中聆听天主的声音,
判断该做什么、不该做什么。
人工智能没有良心,
因此不能承担道德判断。
问23:人类智力是否意味着人可以完全掌控一切?
答:
不是。
教会传统始终提醒:
人的智力是有限的,
必须保持谦卑。
真正的智慧,
不是自以为无所不能,
而是知道自己是受造物,
需要天主的光照。
问24:文件为何提到“智慧”而不仅是“知识”?
答:
因为知识是知道很多,
而智慧是知道如何正确地生活。
圣经常常称赞“智慧的人”,
并不是因为他们信息多,
而是因为他们敬畏上主。
「敬畏上主是智慧的肇端。」(箴 9:10)
问25:人工智能能否拥有这种“智慧”?
答:
不能。
人工智能可以积累大量知识,
但无法敬畏天主,
也无法分辨生命的终极意义。
因此,它不可能拥有圣经意义上的“智慧”。
问26:为什么说人类智力是“整体性的”?
答:
因为人的智力不是孤立运作的,
而是与情感、身体、关系和信仰结合在一起。
人不是一台“思考机器”,
而是一个完整的人。
问27:文件如何看待情感在智力中的角色?
答:
文件提醒:
情感不是理性的敌人,
而是帮助人更完整地理解现实。
怜悯、同理、爱,
都不是算法可以复制的,
却是人类智力成熟的重要标志。
问28:在传统中,人类智力是否与自由有关?
答:
是的,而且关系密切。
人因为有理性,
才能自由地选择善。
自由不是随意,
而是有能力选择符合真理与善的道路。
问29:人工智能为什么不具备真正的自由?
答:
因为它的运作完全受制于程序、数据和目标设定。
它不能选择“不这样做”,
也不能反省自己的行为是否正确。
因此,它不可能成为道德主体。
问30:文件为什么反对把人类智力简化为“计算能力”?
答:
因为这样会降低对人的理解。
如果智力只是计算,
那么人和机器的差别就会被模糊。
教会坚持:
人的智力指向意义、价值与真理,
这是任何机器都无法取代的。
问31:这种简化会带来什么危险?
答:
危险在于:
人可能开始用机器标准衡量人,
忽视人的脆弱、关系和尊严。
当效率成为唯一标准时,
不“高效”的人就容易被边缘化。
问32:神学传统如何看待人的有限性?
答:
神学认为:
人的有限性不是缺陷,
而是受造物真实的状态。
正是在有限中,
人学会依靠天主,
向天主敞开心灵。
问33:人工智能的发展,会不会诱使人忘记这种有限性?
答:
会。
文件警告:
当技术不断扩展人的能力,
人可能误以为自己可以取代天主,
或完全掌控世界。
这种心态,
正是圣经中反复警告的骄傲。
问34:文件如何看待“人类创造技术”这件事本身?
答:
文件肯定:
创造技术本身并不是罪恶,
而是人分享天主创造性的表现。
但前提是:
人必须承认自己是合作者,
而不是创造的最终主宰。
问35:人类智力与祈祷有什么关系?
答:
在教会传统中,
真正成熟的智力,
会自然走向祈祷。
因为人意识到:
最深的真理,
不能只靠推理获得,
而要在与天主的关系中领受。
问36:为什么说人工智能无法进入这种关系?
答:
因为人工智能没有内在生命,
也不能与天主建立关系。
它不会祈祷,
不会敬拜,
也不会回应召叫。
问37:这一整部分想帮助我们确立什么基本区分?
答:
它要我们牢牢记住这一点:
人工智能属于技术领域,
人类智力属于受造、理性、道德与信仰的领域。
如果这个区分被模糊,
人就容易高估机器,
却低估自己作为天主肖像的尊严。
四、伦理在指导 AI 的发展与使用上所担当的角色(36–48 号)
问38:文件为什么说,人工智能的发展必须受到伦理的引导?
答:
因为人工智能本身并不知道什么是善、什么是恶。
如果没有伦理引导,
技术只会朝着“能做到什么”发展,
却不会自动考虑“该不该这样做”。
教会指出:
伦理不是技术之后才补上的限制,
而是技术一开始就必须接受的方向。
问39:这里所说的“伦理”,具体指什么?
答:
文件所说的伦理,
不是个人喜好,也不是临时规定,
而是建立在人的尊严、良心与共同善之上的道德判断。
在天主教传统中,
伦理关心的是:
人的行为是否符合天主的旨意,
是否真正有益于人。
问40:为什么文件强调伦理不能被“技术逻辑”取代?
答:
因为技术逻辑追求的是:
效率、速度、成功率。
但伦理关心的是:
这个行为是否正义
是否尊重弱小
是否伤害人的尊严
如果只用技术逻辑来做决定,
人就容易忽略道德后果。
问41:文件为什么提醒我们,不要以“中立工具”来看待 AI?
答:
因为人工智能并不是完全中立的。
它所使用的数据、规则和目标,
都来自人的选择。
这些选择本身,
就已经包含价值判断。
所以,不能说:
“机器没有立场”,
真正有立场的,是使用它的人。
问42:在 AI 的发展过程中,谁该为伦理负责?
答:
文件清楚指出:
责任始终属于人,而不是机器。
包括:
设计者
开发者
决策者
使用者
没有任何人可以说:
“这是系统的问题,与我无关。”
问43:为什么文件强调“共同善”在 AI 伦理中的重要性?
答:
因为技术的发展,
往往会让少数人获益,
却让其他人被忽略或受害。
教会提醒:
任何科技进步,
都必须考虑是否真正服务于全体社会,
尤其是最脆弱的人。
伦理要求我们关心“大家好不好”,
而不只是“我有没有得利”。
问44:如果 AI 的使用对某些人不利,该怎么办?
答:
文件强调:
当技术应用伤害人的尊严或加深不公时,
就必须重新反省、修正,
甚至停止使用。
在教会伦理中,
人的尊严永远高于技术带来的便利。
问45:文件如何看待“效率至上”的观念?
答:
文件对“只看效率”的思维保持高度警惕。
因为效率本身不是恶,
但如果效率成为唯一标准,
就可能牺牲关怀、耐心与怜悯。
教会提醒:
并非所有“慢一点”的做法都是错误的,
尤其当它更尊重人时。
问46:伦理在 AI 决策中,是否会“妨碍进步”?
答:
文件明确指出:
真正的伦理不是阻碍进步,
而是防止进步走偏。
没有伦理的进步,
可能会变成对人的伤害;
有伦理的引导,
才能让进步成为真正的祝福。
问47:文件为什么强调“可问责性”?
答:
因为在 AI 系统中,
决策过程往往变得复杂、不透明。
文件指出:
任何影响人的决定,
都必须能够追溯到人的责任。
如果一个决定“无人负责”,
那它本身就是不道德的。
问48:伦理如何帮助我们面对技术带来的不确定性?
答:
伦理提醒人保持谦卑与谨慎。
面对不确定的后果,
人不能只凭试验和数据,
而要考虑:
一旦出错,谁会受伤?
教会伦理鼓励:
在可能伤害人的地方,
选择更谨慎、更保护生命的道路。
问49:文件是否要求所有人都成为 AI 专家?
答:
不是。
文件并不要求每个人都懂技术细节,
但要求每个人都保持伦理意识。
尤其是信友,
应当在使用科技时,
常常以良心反省:
“这样做,是否符合基督的精神?”
问50:这一部分想帮助我们形成怎样的态度?
答:
文件希望我们形成一种态度:
在使用人工智能之前,
先问伦理;
在追求效率之前,
先问尊严;
在享受便利之前,
先问责任。
因为在天主面前,
人不能把道德判断交给机器,
而必须以良心承担选择。
五、具体问题(49–107 号)
问51:为什么文件在这里开始谈“具体问题”?
答:
因为前面已经确立原则,现在要面对现实生活中已经发生、正在发生的问题,帮助信友在具体处境中作出有良心的判断。
问52:人工智能的发展是否真的在改变社会结构?
答:
是的。文件指出,AI 不只是工具,而是在重新塑造经济、劳动、人际关系与权力分配。
问53:为什么教会关心 AI 对社会不平等的影响?
答:
因为技术进步往往让强者更强、弱者更弱,而教会始终优先关怀最脆弱的人。
问54:AI 是否可能加剧贫富差距?
答:
可能。如果技术只为少数人服务,弱势群体会被进一步边缘化。
问55:文件如何看待“技术垄断”的问题?
答:
文件提醒,少数人控制关键技术,会对社会公正与民主造成威胁。
问56:AI 在教育中最大的风险是什么?
答:
把学习简化为获取答案,削弱思考、判断与人格的培育。
问57:教会如何理解教育的真正目标?
答:
教育不仅是传授知识,而是培育能分辨善恶、愿意为他人负责的人。
问58:AI 是否可能影响教师与学生的关系?
答:
是的。若过度依赖技术,真实的陪伴与榜样作用会被削弱。
问59:在劳动领域,AI 带来什么挑战?
答:
它可能取代工作岗位,使人失去尊严感与社会参与。
问60:教会如何理解“工作”的意义?
答:
工作不只是谋生,而是人参与天主创造、服务他人的方式。
问61:失业或被技术取代,对人有什么影响?
答:
不仅是经济困难,也可能造成尊严受损与内心挫败。
问62:AI 是否能公平评估员工?
答:
不一定。算法可能忽视人的独特处境与价值。
问63:文件为什么担心“以数据论人”?
答:
因为人会被简化为数字和表现,而不再被当作完整的人。
问64:在医疗领域,AI 有哪些风险?
答:
可能以效率或成本为先,而忽略病人的尊严与痛苦。
问65:教会对医疗决策的基本立场是什么?
答:
任何医疗决定都必须尊重每一个生命的不可取代价值。
问66:AI 能否决定谁“值得治疗”?
答:
不能。生命的价值不能由算法或经济计算来决定。
问67:老人与病人为何特别容易受影响?
答:
因为他们常被视为“低效率”或“高成本”的群体。
问68:文件如何看待 AI 在心理与情感领域的使用?
答:
它可能提供帮助,但不能取代真实的人际陪伴。
问69:为什么机器不能真正“理解”人的痛苦?
答:
因为它没有情感、没有生命经验,也没有怜悯之心。
问70:AI 会影响人际关系吗?
答:
会。人可能越来越依赖技术,而减少真实的相遇与聆听。
问71:文件为何警惕“虚拟关系”?
答:
因为它容易给人连接的假象,却加深孤独。
问72:真正的人际关系需要什么?
答:
需要临在、耐心、牺牲与爱,这些都无法自动化。
问73:AI 会影响家庭生活吗?
答:
如果使用不当,会削弱沟通,减少共处的时间。
问74:文件如何看待儿童与青少年使用 AI?
答:
需要特别谨慎,因为他们正在形成价值观与人格。
问75:AI 是否会影响人的自我认知?
答:
是的。人可能用系统评价来定义自己的价值。
问76:为什么这是一个严重的问题?
答:
因为人的价值来自天主,而不是表现或排名。
问77:AI 在公共决策中有哪些风险?
答:
决策过程可能变得不透明,责任难以追究。
问78:教会为什么强调“可解释性”?
答:
因为影响人的决定,必须能被理解与质询。
问79:如果没人知道“谁决定了什么”,会怎样?
答:
那将削弱正义,也损害人的信任。
问80:AI 在司法领域是否存在风险?
答:
存在。算法可能强化偏见,而忽视具体处境。
问81:公正是否可以完全自动化?
答:
不可以。公正需要良心、审慎与同理心。
问82:文件如何看待 AI 与真理的关系?
答:
AI 处理信息,但不能保证真理。
问83:虚假信息为何在 AI 时代更危险?
答:
因为传播更快、更逼真,也更难分辨。
问84:信友在此应承担什么责任?
答:
保持分辨力,不轻信、不传播不实信息。
问85:AI 会影响文化与价值观吗?
答:
会。它可能强化某些价值,同时排挤其他声音。
问86:为什么多样性在文化中重要?
答:
因为每个人、每个群体都反映天主创造的丰富性。
问87:AI 在政治领域有哪些隐忧?
答:
可能被用来操控舆论、影响选择。
问88:操控为何违背人的尊严?
答:
因为它削弱人的自由判断。
问89:文件如何看待 AI 与权力的关系?
答:
技术若缺乏约束,会集中权力,损害公共利益。
问90:教会为何关注透明与监管?
答:
因为权力越大,责任越重。
问91:AI 在军事领域带来什么严重问题?
答:
把生死决定交给机器,严重威胁道德底线。
问92:为什么“自动化武器”特别危险?
答:
因为它剥离了人的良心与责任。
问93:教会对战争的基本立场是什么?
答:
始终以维护生命、促进和平为首要目标。
问94:AI 会不会让战争更“容易发生”?
答:
可能,因为降低了使用武力的心理门槛。
问95:文件为何呼吁国际合作?
答:
因为 AI 的影响跨越国界,不能各行其是。
问96:伦理规范是否需要全球层面?
答:
需要,否则无法有效保护人的尊严。
问97:信仰在这些讨论中扮演什么角色?
答:
提醒人:一切权力与智慧都不是最终的。
问98:AI 会改变人对天主的看法吗?
答:
若缺乏信仰,人可能误以为技术能取代天主。
问99:文件如何回应这种诱惑?
答:
重申人始终是受造物,而非全能者。
问100:为什么谦卑在 AI 时代特别重要?
答:
因为能力越大,越容易骄傲。
问101:AI 是否影响人的祈祷生活?
答:
若过度依赖技术,可能挤占与天主独处的时间。
问102:技术能帮助信仰生活吗?
答:
可以,但前提是服务于人与天主的关系。
问103:文件为何强调“分辨”?
答:
因为不是所有可能的使用,都是合宜的。
问104:分辨需要什么?
答:
需要良心、省察、祈祷与教会的指引。
问105:AI 是否会重新定义“人是什么”?
答:
文件警告这种危险,强调必须坚守基督徒人观。
问106:基督徒人观的核心是什么?
答:
人是按天主肖像受造,并被召叫去爱。
问107:为什么这一点在整份文件中反复出现?
答:
因为这是判断一切技术应用的根本标准。
问108:面对如此多的挑战,信友会不会感到无力?
答:
文件鼓励信友不要退缩,而要以信德参与公共讨论。
问109:这一部分希望我们带着怎样的态度生活在 AI 时代?
答:
以警醒而不恐惧、开放而不盲从、依靠良心与信仰而行。
六、总结反馈(108–117 号)
问110:为什么在结尾部分,文件再次回到“人”的问题?
答:
因为整份文件的核心始终不是技术,而是人。
在谈了人工智能的各个层面之后,
文件要再次提醒我们:
所有反省,最终都要回到“人是否被尊重”这个根本问题上。
问111:文件在这里如何概括人工智能的整体影响?
答:
文件指出,人工智能带来的影响是深远而复杂的,
既包含机遇,也包含风险。
关键不在于技术本身,
而在于人是否以正确的价值观来引导和使用它。
问112:文件为什么强调“不能对技术保持天真乐观”?
答:
因为如果只看到便利和效率,
而忽略伦理和后果,
人就容易在不知不觉中失去对技术的掌控。
教会提醒:
真正负责任的态度,
是既开放又审慎。
问113:这份文件希望唤醒人类哪一种责任意识?
答:
它希望唤醒的是:
人对自己创造之物的责任。
人工智能不是自然现象,
而是人类智慧与选择的结果,
因此,人必须为其使用方式和后果承担责任。
问114:文件如何看待不同文化和社会在 AI 问题上的角色?
答:
文件强调,
不同文化和民族都应参与讨论,
共同为技术发展提供伦理方向。
这不是某一个国家或群体的问题,
而是整个人类家庭的共同课题。
问115:为什么文件在结尾特别提到“对话”?
答:
因为面对如此复杂的新问题,
任何单一视角都不足够。
文件鼓励:
科学家、伦理学者、政治人物、宗教团体和普通公民,
都应在尊重彼此的基础上展开真诚对话。
问116:教会在这些对话中希望扮演什么角色?
答:
教会并不以技术权威自居,
而是以守护人的尊严与良心为使命。
她愿意贡献的是:
关于人、关于生命、关于善与真理的智慧传统。
问117:文件如何鼓励信友面对 AI 时代的挑战?
答:
文件鼓励信友不要恐惧,也不要逃避,
而是以信德、理性与爱德参与时代的进程。
基督徒被召叫在复杂世界中,
成为良心的见证人。
问118:在这一切反省中,天主的位置是什么?
答:
文件明确指出:
无论科技多么进步,
天主始终是创造的根源和最终的归向。
人不能用技术取代天主,
也不能把希望完全寄托在科技上。
问119:这份文件最终希望留给读者什么样的态度?
答:
它希望读者带着这样的态度生活在当代世界中:
在技术面前保持清醒,
在进步中守护良心,
在复杂中坚守信仰,
在一切发展中,始终把人放在中心。
