在构建应用程序时,与多个提供商集成很麻烦,现在aisuite给解决了。
用相同的代码方式调用OpenAI、Anthropic、Google等发布的大模型,还能实现便捷的模型切换和对比测试。
刚刚,AI著名学者、斯坦福大学教授吴恩达最新开源项目实现了。
吴恩达在推文中宣布了这一好消息开源新的Python包:aisuite!
这个工具可以让开发者轻松使用来自多个提供商的大型语言模型。
在谈到为何构建这个项目时,吴恩达表示构建应用时,发现与多个提供商集成非常麻烦。aisuite正是为了解决这个问题而诞生的,用户只需通过更改一个字符串(如openai:gpt-4o、anthropic:claude-3-5-sonnet-20241022、ollama:llama3.1:8b等),即可选择不同提供商的模型。
项目地址:https://github.com/andrewyng/aisuite
项目一上线,大家纷纷表示「这对开发人员来说非常有用。」
「超级方便!简化集成总是有益的,非常好的研究!」
统一接口设计,支持多个AI提供商的模型
aisuite使开发者能够通过标准化的接口轻松使用多个LLM。其接口与OpenAI的类似,aisuite可以很容易地与最流行的LLM交互并比较结果。
aisuite是一个轻量级的包装器,它基于Python客户端库构建,允许用户在不修改代码的情况下,轻松切换并测试来自不同LLM提供商的响应。
目前,这个项目主要集中在聊天补全功能,未来将扩展到更多使用场景。
当前,aisuite支持的提供商包括:
OpenAIAnthropicAzureGoogleAWSGroqMistralHuggingFaceOllama
为了确保稳定性,aisuite使用HTTP端点或SDK来与提供商进行调用。
安装
安装过程有多种选择。
下面是只安装基础包,而不安装任何提供商的SDK。
pipinstallaisuite
带Anthropic支持的安装方式
pipinstall'aisuite[anthropic]'
下面是将安装所有特定于提供商的库。
pipinstall'aisuite[all]'
设置
开始使用时,你需要为打算使用的提供商获取API密钥。API密钥可以作为环境变量设置,具体的使用方式可以参考aisuite的examples文件夹。
如果大家还不是很明白,可以参考下面简短的示例展示,即如何使用aisuite生成来自GPT-4o和Claude-3-5-Sonnet的聊天补全响应。
先设置API密钥:
exportOPENAI_API_KEY="your-openai-api-key"exportANTHROPIC_API_KEY="your-anthropic-api-key"
使用Python客户端:
importaisuiteasaiclient=ai.Clientmodels=["openai:gpt-4o","anthropic:claude-3-5-sonnet-20240620"]messages=[{"role":"system","content":"RespondinPirateEnglish."},{"role":"user","content":"Tellmeajoke."},]formodelinmodels:response=client.chat.completions.create(model=model,messages=messages,temperature=0.75)print(response.choices[0].message.content)
想要尝试的读者可以跟着原项目进行配置。如今,我们身处大模型时代,对于开发者而言,用一个统一的接口就能调用各种大模型,这给开发者们节省了大量的时间成本。