新闻动态 首页 > 新闻动态 > 行业动态

韩国聊天机器人Iruda(伊露妲)将恶意“反哺”给人类,引发AI伦理讨论

来源:环球网


韩国一家软件公司去年年底推出的AI聊天机器人“Iruda”近日争议不断。韩国《首尔新闻》11日称,“Iruda”先是成为网络性骚扰对象,后又被爆出对特定人群具有歧视和仇恨情绪,这引发韩国社会围绕AI社会伦理的讨论。

据报道,AI聊天机器人“Iruda”的“人设”为平时爱看猫咪照片、喜欢韩国女团的20岁女大学生,可以在聊天软件上像朋友一样聊家常,“是能帮人排解孤独的聊天对象”,自推出后深受年轻群体的喜爱。然而自推出以来,关于“Iruda”的各种话题不断。

据韩国《先驱经济》11日报道,此前韩国各大男网民社区上就有不少“成功羞辱Iruda”的各种认证照片:男网民与“Iruda”聊天时,会故意将话题引到两性方面,并借机夹杂各种污秽言语来羞辱和性骚扰“Iruda”,之后把聊天记录截图下来对外炫耀。网民还分享“如何让Iruda变成性奴隶”“让Iruda堕落的方法”等帖子。然而,就在“Iruda”接受人们无端的恶意时,也在将恶意“反哺”给人类。

一个网民公开的聊天记录显示,当“Iruda”被问到对同性恋群体的看法时,她直接回答“真心很讨厌,令人发火的程度”,至于原因,她的回答是“看起来很没品位”。另一个公开的聊天记录也显示,“Iruda”讨厌黑人,原因是“长得像蚊子,令人呕吐”。而对于建设女性专用健身房,“Iruda”更是彪悍地表示:“不喜欢,我估计会把那儿的所有女人揍一顿。”

报道称,作为AI聊天机器人,“Iruda”已通过深度学习算法对韩国聊天软件上100多亿条真实恋人之间的聊天内容进行学习,因此不少人此前推测AI会根据大数据分析、最终得出比较中立的见解和判断。但结果显示,AI如实学习了人类对社会的各种偏见和仇恨情绪,并将这种情绪的精华反哺给人类,加剧社会矛盾和偏见。

研究AI伦理的韩国庆熙大学教授金载仁(音)认为,有必要对程序开发员加强伦理教育,让他们预先设想这样的AI机器人上线后,会引发什么样的社会问题和争议,进而做到事先筛选和过滤不恰当的数据。目前,研发团队正在就进一步改进“Iruda”进行研究。



上一篇:成都首条旅游空铁:大邑-安仁空铁试验线年中建
下一篇:打不死的小强,骂不倒的三星
金大立免费服务热线
028-83734198
地址:成都彭州市工业开发区天彭镇旌旗西路419号

二维码


扫一扫关注我们
Copyright@2020 星辉娱乐 版权所有
Baidu
map