依据 Claude 开发者商业服务条款的更新,生成式人工智能 (AI) 初创公司 Anthropic 许诺不会运用客户数据进行大型言语模型练习。
该公司许诺在版权纠纷中为用户提供支撑。由前 OpenAI 研究人员领导的 Anthropic 修改了其商业服务条款以澄清其态度。
这些变化自 2024 年 1 月起生效,规则 Anthropic 的商业客户还拥有运用其人工智能模型的一切输出。
Claude 开发者“预计不会依据这些条款取得客户内容的任何权力。”OpenAI、微柔和谷歌许诺在 2023 年下半年为因运用其技能而面对版权索赔而面对法律问题的客户提供支撑。Anthropic在其更新的商业服务条款中也做出了类似的许诺,以维护客户免受因授权运用公司服务或输出而引起的版权侵权索赔。
Anthropic 表明,“客户现在将在与 Claude 一同构建时享受到更多的维护和安心,以及更精简、更易于运用的 API。”作为其法律维护许诺的一部分,Anthropic 表明将付出任何经同意的费用。因其人工智能侵权而发生的和解或判定。
这些条款适用于 Claude API 客户以及经过 Amazon 的生成式 AI 开发套件 Bedrock 运用 Claude 的客户。相关:Google 教 AI 模型怎么运用其他 AI 模型,并且在编码方面提高了 40%。
条款规则,Anthropic 不计划取得对客户内容的任何权力,也不以暗示或其他方式向任何一方提供对另一方内容或知识产权的权力。先进的人工智能系统,如 Anthropic 的 Claude、GPT-4 和 LlaMa,已知作为大型言语模型(LLM),是在大量文本数据上进行练习的。
法学硕士的有效性取决于多样化和全面的培训数据,经过学习各种言语模式、风格和新信息来提高准确性和语境意识。 环球音乐集团于 10 月份申述 Anthropic AI 侵略“大量受版权维护的著作 - 包含“无数音乐著作的歌词”均由出版商拥有或控制。Anthropic 并不是仅有一个成为此类诉讼对象的公司。
作者朱利安·桑克顿 (Julian Sancton) 申述 OpenAI 和微软,指控其未经授权运用非小说类作家的著作来练习人工智能模型,包含 ChatGPT。
杂志:2023 年尖端人工智能工具、古怪的 DEI 图画护栏、“基于”的人工智能机器人:AI Eye
此时快讯
【Michael Saylor发布安全提醒,社交媒体出现多个其鼓吹比特币升至100万美元的AI伪造视频】金色财经报道,MicroStrategy创始人Michael Saylor在X平台发布安全提醒,他表示YouTube上出现大量由人工智能生成的DeepFake虚假视频,视频中的伪造角色声称比特币价格将升至100万美元,其中还包括了各种交易和赠品欺诈。Michael Saylor表示其安全团队正在处理这些人工智能生成的深度伪造视频,同时提醒用户要格外小心,记住天下没有免费的午餐。