护理机器人:当老人拒绝服药时,我该怎么做?
生育率的降低和平均寿命的延长让世界的老龄化问题越来越严重。今天,欧洲和北美超过65岁以上的人群已达到1.83亿。美国人口调查委员会估计:到2030年,这个数量将达到2.51亿。因此,老年人护理人员的需求也越来越大。
这时候,护理机器人便应运而生了。在将来,这些机器人将会帮助专业护理人员,在家庭或者医院照顾老人。它不仅能够降低雇佣专业护理人员的成本,还能给予老人更多自由。
虽然护理机器人将会给社会带来诸多福利,但数据显示:现阶段人们对于护理机器人的接受程度并不高。欧洲委员会曾进行过一项覆盖27个欧洲国家的调查:超过50%的人想要国家禁止护理机器人,将近90%的人表示如果真的由机器人来照顾他们的老人或孩子,他们会感到不知所措。
那么,我们要如何增加机器人的接受程度呢?首先,当然是要说服人们机器人是安全的。然而,虽然安全甚是重要,但还不够,我们还需要让人们知道机器人能够考虑病人的隐私、自由和社会关系,减轻病人的压力。
很多人在考虑护理机器人的使用时,会将道德评价考虑在内。因此,随着机器人的认知、行动能力的提高,它们需要作出自主的道德评价。研究表明:机器人的自由程度越高,它们越需要道德标准,特别是在它们接触弱势群体时。换句话说,护理机器人在照顾老人时,需要作出相应的道德评断。
让护理机器人拥有道德评判标准将会让更多病人和专业护理人员接受它们。研究表明:如果我们对机器人的道德行为缺乏信任和关注,那么我们将不会接受它们。因此,很多研究团队已经想出了一些办法,来赋予机器人道德准则。现阶段,这方面的研究还处于早期阶段。但是,研究一直在发展,业内人士也预测此领域未来几年将会有巨大的进步。
在确定了机器人道德标准的重要性后,我们就需要选择适用的道德原则。首先,很多专家建议从一些现有的道德原则(比如实用主义和康德的义务论)选取机器人的道德标准。另外,一些业内人士也认为机器学习技术也适用于护理机器人的道德标准。不过,这两种方法都有自己的限制,并且迄今为止没有产生令人满意的结果。
而第三种方法则更加实用。我们相信最好的方法来自实践,因此机器人应该直接询问它们的接触者(比如病人、病人亲属、护理人等),换句话说,机器人应该以用户为导向。这种方法的优势之一就是直接让用户参与机器人的设计。事实上,在很大程度上,现在对于机器人的道德标准讨论得较多的人群仅限于学术界人员、工程师和法律工作人员。但是说到底,使用机器人的还是用户们,因此我们需要与之有直接接触的人来参与设计。
因此,我们做了一项调查,来了解大众对于机器人道德标准的判断。我们设计了一个情景:
Annie是一位由护理机器人照顾的老人,机器人的任务包括提醒她在特定的时间服药。但是有一天,Annie拒绝服药,这时机器人需要在自己的义务和主人的自由度之间作出道德权衡。
调查中设计了一些问题,答案为一些情景假设,参与者可以根据自己的观点作出选择。如果人们比较偏向某一个答案,那么我们将会以这个作为指导来设计机器人;如果人们的答案比较分散,那么这就表明所谓的道德标准因人而异,这样我们就需要设计定制化的机器人。
如果你想参与调查, 请戳这里 。
至于最后的调查结果如何,雷锋网 (搜索“雷锋网”公众号关注) 将会在第一时间与您分享。
Via: Robohub