首页 /
2025
十二月

20

17

四、伦理在指导AI的发展与使用上所担当的角色

1231231

36.鉴于上述考量,人们不禁要问到,在天主的计划中,该如何理解AI呢?要回答这个问题,重要的是要记住,科技活动并非中立的,而是人类努力的成果,并且涉及到人类创造力之人文及文化的幅度。[71]

37.科学研究和技术技能的发展,被视为人类智能潜能发挥的成果[72],亦为“是男女跟天主合作,使有形的受造界达致完美。”[73]之一部分;同时,一切科学技术的成就,归根究底都是天主的恩赐。[74]因此,人类必须始终以天主赋予他们更高目的,来运用自己的能力。[75]

38.我们应该要满怀感激地承认:“科技曾补救了无数有害及钳制人类的悲行。J[76]我们应该为此感到喜悦;然而,并非所有科技进步本身,都代表着人类真正的进步[77]教会尤其反对那些威胁到生命的神圣性,或是人类尊严的应用。[78]一如人类的任何努力及科技发展,必须以服务人类为目标,并有助于“为了事取更大的正义、更普及的爱德、更合乎人性的秩序,而有所作为,要比技术的进展,价值更高。”[79]不仅教会内部,有许多科学家、技术专家及事业协会,也针对科技发展的伦理影响而感到担忧。他们不断地呼吁必须要进行伦理反思,以负责任的方式来指导这项发展。

39.为了回应这些挑战,必须强调基于人位格的尊严及使命之道德责任,是至关重要的,这项指导原则也适用于有关AI的相关问题;在此背景下,伦理层面尤其重要,因为是人类设计此系统,并决定其用途者,亦为人本身。[80]在机器和人类之间,只有后者才是真正的道德自主者——一个承担道德责任的主体,能够在自己的决策中行使自由,并承担其后果。[81]然而与真理及良善建立关系的不是机器,而是人类,其受到道德良知的引导,因此道德良知呼吁人们要“行普避恶。”[82]为此“证明与至善相关真理的权威。”[83]同样地,在机器和人类之间,只有人类才能充分地自我认知,听及听从良心的声音,并且谨慎地辨别,而且在任何情况下寻求可能实现的善。[84]事实上,这一切也是属于人类智能的运用。

40.与人类借由创造力所获得的任何产品一样,AI可以用于积极或是消极的目的。[85]当以尊重人性尊严及促进个人与社群福祉的方式使用时,就能够对人类的使命做出积极的贡献。然而,正如在所有人类必须作出决定的领域一样,邪恶的阴影也在此若隐若现;当人类的自由允许选择错误之事时,对这项技术的道德评估就必须考虑到,其是如何被引导及使用的。

41.同时,不仅订定目标的本身具有伦理上的意义,并且实现此目标所采取的方式也是同样重要的;此外,这些体系中蕴含着对人的整体愿景及理解,也非常值得思考。科技产品反映出其开发者、拥有者、使用者及管者的世界观[86],并且具有能力“型塑世界,并在价值观层面上,能够激发良知。”[87]在社会层面上,这些技术发展也可能加以强化,并对人类及社会正确地理解,其中关系和权力动态的不一致。

42.因此,必须评估AI应用所使用的目的及方法,以及AI所包含的整体愿景,以确保这些运用要能够尊重人性的尊严,并促进公益;正如教宗方济各所言:“每位男女根本的尊严,必须是‘评估新兴技术的关键标准;这些技术将在伦理上被确认是合理的,因为这些技术有助于尊重该项尊严,并在人类生活的各个层面上,提升该项尊严的体现。”[89]并且包括在社会与经济领域。就此项意义而言,人类智能不仅在技术的设计及生产方面,发挥出至重要的角色,而且应该指导该技术之使用,以符合人类的真正福祉。[90]并且明智地负起管理这一切的责任,系属于社会的每个层面,并愿以辅助性原则及天主教社会训导的其他原则作为指导。

有助于人的自由与决

43.应该要承诺确保Al始终支持及促进每个人至高价值的尊严,以及人类使命的完整性,作为开发者、拥有者、操作员和监管者,以及使用者的辨识标准,此一原则对于技术在各个层级的应用仍然有效。这将使得若需追究其责变得更为复杂,因为如果AI应用产生了不良结果,要确定其责任归属者,将变得格外得困难。为了解决此项问题,需要专注于复杂、高度自动化的环境中,追究责任之流程性质,因为其效果可能要到中长期才能呈现出来;为此,重要的是,使用A做出的决策其最终的责任,该由人类决策者来承担,并且在决策过程的每个阶段,Al的使用都应该要追究其青。

45.除了确定责任归属者之外,还必须明确地赋予Al系统目标;尽管这些系统可能使用无监督的自主学习机制,并且有时会遵循人类无法重构的路径,但是这些系统最终追求的是,人类所赋予的目标,并受其设计者及程式设计师所设定的流程所约束。然而,此项问题也带来了挑战,因为随着AI模型自主学习能力的不断增强,必须维持对AI的控制,为确保其能力应该用于服务人类之目的,可能将逐渐地减弱;因此所引导出的一个关键问题是:如何确保AI系统系为增进人类福利,而非损害人类利益。

46.虽然合乎道德地使用AI系统的责任,始于那些开发、生产、管理及监督此类系统的人们,但是使用此类系统的人们,也应该要共同承担责任;正如教宗方济各所指出的,机器“根据明确的标准或是统计推论,在几种可能性中做出技术性的选择;然而,人类不仅能够作出选择,而且在他们的内心是能够作出决定的。”[92]那些使用AI来完成任务,并且关注其结果的人们,在这种环境下,他们最终要对自己所赋予的权力负责。

因此,只要Al能够协助人类做出决策,控制AI的演算法就应该值得信赖、安全及足够强大,以处理不一致的情况,并且运作上必须透明化,以减少偏见及出乎意料之外的副作用。[93]

监督架构应确保所有法律实体,对AI的使用及其所有造成的后果负责,并采取适当的保障措施,确保其透明度、隐私及追究责任之机制。[94]此外,AI的使用者应该要注意到,不要过度地依赖AI来进行决策,这种趋势会加剧当代社会本已对科技的高度依赖。

47.教会在道德及社会训导所提供的资源,为协助确保AI的使用能够维护人类的自主权;例如,有关于公义的考量,也应涵盖了促进公正的社会动态、维护国际安全,以及促进和平等议题。

借由谨慎的态度,个人与社群能够找出使用AI造福人类的方法,同时避免可能贬低人性尊严,或是伤害环境的应用;在此背景下,责任的概念不应该只理解为其最有限的意义,而是应该理解为“关怀他人的责任,这不只是核算所获取的成果”。[95]

48.因此,AI如同任何科技一样,能够成为人类自觉且负责任地回应其行善使命之一部分;然而,如前述内容所言,AI必须由人类智能所引导,以符合该项使命及确保其尊重人位格尊严。梵蒂冈第二届大公会议认识到此项“崇高的尊严”并申明道:“社会秩序及其进步时时应以人们的利益为目标。”[9 6]有鉴于此,正如教宗方济各所言,AI的使用必须“伴随着一种受到共同福祉愿景所启发的伦理,是一种自由、责任及博爱的伦理,并且能够促进个人与他人,以及整个创造物之间的全面发展。”[97]

评论

请你先登录再进行评论。