Anthropic为AI开发者推出增强的提示评价工具

realtime news  Jul 10, 2024 14:22  UTC 06:22

1 Min Read

Anthropic是AI开发领域的领导者,他们推出了旨在增强AI开发者提示生成和评价过程的新工具。据Anthropic称,这些新的功能可以加快开发速度并提高AI驱动应用程序的质量。

简化提示创建

Anthropic控制台的新工具包括一个由Claude 3.5 Sonnet驱动的内置提示生成器。该功能允许开发者只需描述一个任务,例如“筛选入站客户支持请求”,然后让Claude生成一个高质量的提示。这简化了制作有效提示的过程,这通常需要对应用程序需求和大型语言模型有深刻的理解和专长。

自动测试用例生成

为了进一步帮助开发者,Anthropic引入了一个测试用例生成功能。这允许用户生成其提示的输入变量,并测试Claude的响应。开发者可以使用自动生成的测试用例,也可以手动输入,提供了验证提示的灵活性。

全面测试和评价

Anthropic的Evaluate新功能使开发者能够在控制台内直接针对各种实际输入测试提示。用户可以手动添加或从CSV文件导入测试用例,或者让Claude自动生成。这一功能还允许开发者修改测试用例并一键运行所有测试,为提示评价提供了简化的方法。

此外,开发者现在可以并排比较多个提示的输出,并由主题专家在5分制上评分响应质量。这些能力实现了更快速的迭代和提示质量的改进,从而提高了整体模型的性能。

入门指南

新的测试用例生成和输出比较功能对所有Anthropic控制台用户开放。更多关于如何使用Claude生成和评价提示的详细信息,用户可以参考Anthropic的文档。



Read More