近日,Google发布了新的指导方针,旨在减少AI应用程序中的不适当和被禁止内容的传播。根据报道,Google Play Store要求生成式AI类应用限制不当内容的传播。
根据最新政策,所有提供生成式AI功能的应用必须采取有效措施,防止生成和传播色情、暴力等受限制的内容。开发者还需要对AI模型进行严格测试,以确保生成的内容符合社会道德和法律规定。
新政策适用于基于文本、语音和图像输入提示的各类应用,如聊天机器人、图像生成器以及语音和视频生成工具。但不包括作为AI内容展示平台的应用,或将AI作为提高工作效率工具的应用。
Google Play特别指出一些AI生成的违规内容类型,包括深度伪造材料、诈骗辅助内容、鼓励危险行为的内容、欺凌和骚扰行为、满足性需求的内容、生成虚假官方文档以及恶意代码等。
为了提升应用上架的透明度和简化流程,Google计划在未来增加新功能,使开发者更方便地向商店提交他们的AI应用。
通过这些措施,Google展现了维护数字环境健康、保护用户权益的坚定决心。这将有助于提升用户体验,促进AI技术的健康发展和应用。相信随着新规的实施,我们将看到一个更加清洁、有序的数字世界。
欢迎读者在下方评论留言,关注我们的推文并点赞支持,感谢您的观看!