据Gizmodo 7月8日报道,日本一家公司正在开发一款智能手机应用程序,可以自动删除儿童手机上的裸照,开发这款应用程序是为了防止对儿童和未成年人的性剥削。
目前,Smartbooks公司、爱知县藤田健康大学(Fujita Health University)以及爱知县名古屋(Nagoya)的中村站(Nakamura station)正在合作开发这款手机app,目前还处于beta测试阶段。

图片来自:Gizmodo
“儿童和社交媒体之间的关系非常紧密,我们想用这个应用程序来防止性虐待,”中村警察局社区安全部门的副经理铃木信宏(Nobuhiro Suzuki)告诉《今日日本》。
这款应用程序目前还没有名字,暂被称为“Kodomamo”(日语中“孩子”和“保护”的合成词),使用人工智能技术识别暴露的照片。
一旦下载到手机上,“Kodomamo”就会扫描每一张照片来检测任何裸照,还会发现任何下腹、胸部和裸露的生殖器的照片。
如果发现,该图片将被删除,并发送警告通知给孩子的监护人。
2021年,日本警方的数据发现,1811名儿童是社会犯罪的受害者,其中三分之一的案件违反了日本的儿童色情法律,该法律包括儿童拍摄自己的裸照。
预计到2022年底,这款应用程序将准备就绪,供儿童和监护人下载。
(编译:晋阳)
评论留言