```html
在监管数字技术(如生成式人工智能和算法)方面,重点往往放在技术本身,而不是与之互动的人类。至少,不是放在真实的人类身上。埃丝特·凯默伦教授在她的就职演讲中认为,我们必须承认人类的行为从不是完全可预测的;否则,监管将永远无法有效。4月19日星期五,她将在蒂尔堡大学担任数字技术监管职位的主席。在她的工作中,她专注于技术监管所涉及的伦理和哲学问题。
数字技术日益渗透到我们的生活中:社交媒体、导航系统、ChatGPT和许多其他应用已成为常态。我们的生活甚至部分由它们所塑造。通过新的法律和法规,我们在这些系统中的数据得到了尽可能的保护,并且与这些新技术相关的风险也被降到最低:想想欧盟的《通用数据保护条例》(GDPR)、《人工智能法案》和《可信赖人工智能指南》。
所有这些法规中确实考虑到了人的因素,但往往并不奏效。埃丝特·凯默伦通过数字技术所涉及的四类人来阐释这一点:公民、专业用户或开发者、公务员和科学家。
作为公民,例如,我们在不了解自己同意了什么的情况下接受Cookie;我们不阅读细则。有时,我们需要不同的使用条款,比如以团体而非个人为单位管理隐私,或者我们可能不想知道某些可用数据——比如遗传疾病的风险。监管假设人类自己控制他们的数据,但根据凯默伦的说法,这种人类是虚构的。
技术专业人员和科技公司被期望根据伦理和法律原则设计和使用技术,但这往往并非易事。例如,什么是公平的技术?如何在技术实践中维护人类尊严?这些复杂的法律和伦理问题越来越被表述为具有可编程答案的技术问题。然而,人类生活的所有方面并不能都通过数据和系统来捕捉。因此,有时更广泛的公众讨论或政治决策比技术解决方案更为合适。
公务员在使用数字技术方面付出了巨大努力来做到正确,例如,通过检查算法是否存在歧视。但通常,这还不够——那些不符合现有分类的人怎么办?技术在这一点上并不总是提供简单的解决方案。
当需要建议时,通常会咨询科学家,但当涉及到技术的使用时,他们也不总是有明确的答案。科学可以概述各种情景,但民主的政治舞台上总有一些问题必须得到回答。
根据凯默伦的说法,解决方案是不要将人类视为在数字技术面前有所欠缺,而是——遵循哲学家赫尔穆特·普莱斯纳的观点——将人类视为与其环境相连、具有创造力和活力的个体。根据这种积极的人性观,人类不断塑造生活,通常借助技术的帮助,并且永无止境。正是这种可变性构成了人类的特征,也是监管必须保护的。
因此,我们不仅必须投资于使技术与人类保持一致(这仍然很重要但永远不可能完美),还必须为出错时制定解决方案,安排替代方案,提供制衡机制,并制定退出策略。需要一种多元化的方法。只有当我们珍视人类的不可预测性时,技术才能真正为我们服务。