艺术家与测试人员泄露OpenAI新工具,抗议无偿劳动和不公待遇
2024年11月26日,一群艺术家和OpenAI未发布的文本转视频工具Sora的早期测试者通过向AI开发平台HuggingFace发布泄露版本,表达了他们对OpenAI未对其贡献提供任何报酬的抗议。这一行动引发了关于AI技术开发过程中的道德和劳动力问题的广泛讨论。
Sora工具泄密事件:艺术家不满无偿劳动据报道,这群艺术家和测试人员以“PR-Puppets”用户名联合发起了这一泄密事件。他们宣称,自己在成为Sora工具的早期测试者、红队成员和创意合作伙伴时,遭遇了OpenAI的欺骗。他们在公开信中表示,自己被引诱参与“艺术清洗”,即通过他们的测试、反馈和创意合作向世界展示Sora工具在艺术创作中的潜力。然而,尽管他们的工作为Sora工具的开发提供了大量支持,但艺术家们声称没有收到任何形式的报酬或公开承认。
公开信中提到,“数百名艺术家”通过错误测试、反馈和实验工作为OpenAI提供了宝贵的资源,但他们最终却被排除在任何补偿或荣誉之外。艺术家们指出,尽管OpenAI当前的市值已达到1570亿美元,但公司未能对这些贡献者给予应有的待遇,令他们感到失望和愤怒。
早期测试者对OpenAI的批评这起事件揭示了AI领域在劳动力和创意贡献者管理上的潜在问题。作为一项新兴的技术,AI开发过程常常依赖于大量的测试人员和创作者的支持,尤其是在开源工具和beta测试阶段。然而,这些创作者往往没有获得足够的认可或报酬,尤其是在涉及到商业化应用时。
Sora工具的早期测试者表示,OpenAI的做法让他们觉得自己被当作“免费劳动力”来利用,而OpenAI则利用他们的劳动成果推动技术发展并获取商业利益。虽然他们最初是以合作伙伴的身份参与项目,但最终发现自己被排除在任何形式的奖励之外。
OpenAI的回应与后续处理尽管这些艺术家和测试人员泄露了Sora工具的前端版本,OpenAI很快介入并关闭了该工具的访问权限。OpenAI未对这一泄密事件作出公开评论,但其行动表明,该公司正在积极应对这一挑战。
此次事件突显了AI技术开发过程中,如何平衡创新与对创作者的公正待遇的问题。随着AI技术的快速发展,如何确保所有参与者,尤其是那些贡献创意和技术支持的人员,得到合理回报,已成为行业中的重要议题。
AI技术开发中的伦理问题随着Sora事件的爆发,AI领域面临的伦理问题也愈加显著。特别是当技术的开发与创作者的劳动紧密相关时,如何确保公平补偿与承认,成为了AI公司亟待解决的问题。此次事件不仅是OpenAI面临的一次挑战,也可能会成为整个行业在未来面临的广泛议题,促使更多的AI公司反思其商业化过程中的公平性与透明度。
随着AI技术日益成为各行各业的重要工具,如何在保持创新和竞争力的同时,照顾到创作者和早期贡献者的利益,将是衡量一个AI公司道德责任的重要标准。