
不是物理损毁的机器才被称作“殇之机器人”,而是在开发、应用或者互动里,因其存在或者行为致使伦理悲剧、情感伤害或者社会困境出现的智能体叫这个。身为亲历者,我见到过技术的光明面怎样在不经意时候投射出长长的阴影 。

我曾经参与过一个项目,这个项目是关于老年陪护机器人的,它成功让老人的孤独得到了缓解,然而有一位使用者却把它当作真正的伴侣,当因为资金中断项目停止,机器人被回收之后,老人陷入了相比于以往更深程度的抑郁,这使我认识到,当技术触碰到人类最深层次的情感需求时,它的“失效”所带来的并非是产品出现故障,而是实实在在的心灵创伤,句号 。

一种源于设计短视以及伦理缺场的“殇”,我们太过于追求算法效率和拟人化程度,却遗漏了为潜在情感依赖设立安全界限,也没有对技术撤离后果予以评估,机器被赋予了过度象征意义,但其工具本质却被使用者甚至设计者或有意或无意地忘却了。

倘若要避免在未来出现那种令人伤痛之事,那我们必然得把伦理方面的评估放置于技术开发的核心之处,这就意味着在进行技术的设计之起始阶段,就得去思索它所会产生的社会层面的影响,要揣度情感方面可能存在的风险以及考虑退出的相关机制,技术应当是能够提供助力使能力得以发挥的事物,而绝不是情感的替代物或者是导致创伤的源头 。

你对于机器人跟人类情感之间这么细微而又难以捉摸的界限是怎样看待的呢,有没有过类似的观察或者担忧呀?