Meta面临警告:人脸识别眼镜或助长性侵害

超过70个组织,包括美国公民自由联盟(ACLU)、电子隐私信息中心(EPIC)和未来斗争组织(Fight for the Future),警告称Meta计划推出的AI智能眼镜可能会危害虐待受害者、移民以及LGBTQ+群体的安全。这些组织认为,智能眼镜的面部识别功能可能被不法分子利用,增加对弱势群体的威胁。

Meta公司近期因其计划推出的AI智能眼镜引发了广泛的争议。超过70个组织,包括美国公民自由联盟(ACLU)、电子隐私信息中心(EPIC)和未来斗争组织(Fight for the Future),联合发出警告,称这款眼镜的面部识别功能可能会被不法分子利用,从而对虐待受害者、移民和LGBTQ+群体构成潜在威胁。

面部识别技术的隐私风险

面部识别技术一直以来都备受争议。尽管它在安全监控和身份验证等领域有着广泛应用,但其滥用风险令人担忧。尤其是当这项技术被应用于可穿戴设备时,隐私和安全问题更加突出。Meta的智能眼镜将面部识别技术集成到日常生活中,可能会导致个人信息的泄露和不当使用。

行业背景与争议

近年来,随着人工智能技术的快速发展,面部识别技术的应用范围不断扩大。然而,这项技术也引发了关于隐私和伦理的广泛讨论。许多专家认为,面部识别技术可能会被用于监控和追踪个人,甚至可能被犯罪分子利用来识别和攻击特定群体。

“智能眼镜的面部识别功能可能会被不法分子利用,增加对弱势群体的威胁。”——ACLU

这些组织呼吁Meta重新审视其智能眼镜的面部识别功能,并采取措施确保用户隐私和安全得到充分保护。

编者按

随着科技的进步,隐私和安全问题变得愈发重要。企业在开发新技术时,应充分考虑其潜在风险,并采取相应措施来保护用户的权益。Meta在推出智能眼镜时,也应认真听取各方意见,确保技术的安全性和伦理性。

本文编译自WIRED