更新时间:2024-06-07 16:16:32
6月7日 消息:Google近日发布了针对AI应用程序的新指导方针,旨在减少“不适当”和“被禁止”的内容传播。根据报道,Google Play Store宣布了对生成式AI类应用的整顿,要求这类应用限制不当内容的传播。
根据最新政策,所有提供生成式 AI 功能的应用必须采取有效措施,防止生成和传播色情、暴力等受限制的内容。此外,开发者需要对 AI 模型进行严格的测试,以确保其生成的内容符合社会道德和法律规定。
新政策的适用范围包括基于文本、语音和图像输入提示,通过 AI 生成内容的各类应用,如聊天机器人、图像生成器以及语音和视频生成工具。然而,这一规定并不适用于那些仅作为 AI 内容展示平台的应用,或者将 AI 作为提高工作效率的工具的应用。
Google Play 还特别指出了 AI 生成的违规内容类型,包括但不限于深度伪造材料、诈骗辅助内容、鼓励危险行为的内容、欺凌和骚扰行为、满足性需求的内容、生成虚假官方文件以及恶意代码等。
为了提升应用上架的透明度和简化流程,Google 还计划在未来增加新的功能,使开发者能够更加方便地向商店提交他们的 AI 应用。
通过这些措施,Google 展现了其对于维护数字环境健康、保护用户权益的坚定决心。这不仅有助于提升用户体验,也促进了 AI 技术的健康发展和应用。随着新规的实施,我们期待看到一个更加清洁、有序的数字世界。