产品

Anaconda AI Navigator

在本地下载并体验精选的开源 AI 模型。

免费下载 AI Navigator

简化并保护您对 LLM 的使用

AI Navigator 让您可以轻松访问各种具有不同参数计数、大小和准确度级别的大型语言模型,因此您可以在安全的桌面环境中,为您的特定设备找到合适的模型。

安全

在本地运行大型语言模型,以维护隐私和数据安全。

私密

与本地 LLM 交互,无需通过云服务或基础设施提供商发送数据。

低风险

使用不同的领先 LLM,发现最适合您用例的模型。 

GenAI 的试验场

访问由 Anaconda 精选、托管和验证的 LLM。AI Navigator 让您可以在安全的桌面环境中试验 LLM,然后通过 API 服务器或聊天机器人与它们交互——所有操作都在本地进行,因此您的数据保持安全。

免费下载 AI Navigator

精选模型

从 Anaconda 值得信赖的包含 200 多个领先 LLM 的库中选择——55 个模型,每个模型有四个不同的量化级别——以便您可以衡量模型的效率和准确性。

API 推理服务器

无需外部云服务即可测试模型。通过将对专有 LLM 提供商的调用替换为对本地服务器的调用,增强安全性。

内置 AI 助手

加速常见的任务,例如长文本摘要和策略生成,所有这些都在本地聊天的安全性和隐私性中完成。

Icon of models

本地模型

在本地安全地使用 LLM,保持对专有信息的控制,并消除对互联网连接和外部服务器的需求。

直观的用户界面

AI Navigator 的界面专为所有技术技能水平的用户设计,简化了 LLM 的浏览、下载和实验。

了解更多关于 AI Navigator 的信息

下载信息表

更多资源

感恩与成长:回顾 2023 年,拥抱充满希望的 2024 年

了解更多

如何使用 Mistral 和 Llama2 构建 AI 聊天机器人

了解更多

如何构建检索增强生成聊天机器人

了解更多

下载 Anaconda AI Navigator

为获得最佳体验,我们建议 16GB 或更多内存
在下方选择您的平台安装程序。

版本:GA

Linux

即将推出

常见问题解答

什么是 AI Navigator?

AI Navigator 旨在简化和保护 AI 应用的创建,包含 200 多个精选 LLM,以及一个 API 服务器和一个用于与这些 LLM 交互的聊天机器人。AI Navigator 让您可以在本地工作,从而确保您的数据安全。

AI Navigator 的目标是为 Anaconda 用户带来最先进的模型,并支持多样化的硬件配置。LLM 仓库包含 Llama 3、Gemma 和 Mistral 模型,仅举几例。此外,每个模型都有四个量化级别可用,以确保跨各种设备的兼容性。

用户将精选模型下载到 PC 后,支持后续与模型交互的计算完全依赖于用户的本地计算资源。无论用户是通过聊天代理还是通过 API 服务器与模型交互,情况都是如此。交互的任何内容都不会离开用户的机器,并且本地模型不会从交互中学习。事实上,一旦下载了感兴趣的模型,用户就可以在没有任何网络访问的情况下,通过 AI Navigator 与本地模型进行交互。

Anaconda 团队验证模型是否直接来自其发布者,然后构建量化版本(模型的压缩版本)。如果没有 AI Navigator,用户通常必须依赖不安全的第三方或个人来提供量化模型,因为发布者往往只发布完整模型,这些模型可能非常庞大且使用成本高昂。

AI Navigator 配备了一个 API 服务器,该服务器提供或运行所选的本地 LLM 模型,使其可以接受传入的 API 调用请求并返回响应。这使开发人员可以将智能融入到他们的代理和应用程序中。

您现在可以轻松地用对 AI Navigator 中服务器的调用替换 OpenAI API 调用,因为这些调用彼此兼容。在 API 服务器页面中,您可以配置本地服务器的地址、端口以及您要设置的模型文件。

AI Navigator 目前适用于 Windows 11 和 macOS 13+。AI Navigator 本身的要求很低。相反,要求由您要使用的模型决定。每个模型有两个主要要求:(1)您必须有足够的磁盘空间来下载和存储模型。大多数模型的大小在 2 到 10GB 之间,但有些模型非常强大,需要高达 150GB 的存储空间。(2)您必须有足够的内存来运行模型。AI Navigator 结合使用主系统内存 (RAM) 和任何可用的 GPU 内存 (VRAM) 来运行模型。我们建议至少 16GB 的 RAM,以便能够毫无问题地运行大多数模型,但有些模型需要更多内存才能运行。

AI Navigator 内置的聊天机器人代理由于其用户友好的界面,是与 LLM 交互的最直观方式。您下载到自己机器的 LLM 将为聊天提供支持,并且所有计算都在本地进行,这意味着来自聊天的任何专有或私有数据都不会离开您的设备。

直观的用户界面允许用户方便地选择他们选择的 LLM 来为聊天提供支持、执行常见的 GenAI 任务、重新生成响应以及查看以前的聊天记录。通过 UI,更高级的用户还可以更改系统提示并配置关键设置以塑造聊天响应。

对于 AI 应用和代理开发人员,一旦他们在特定任务和场景中成功使用特定模型,他们就可以将 LLM 加载到 API 服务器中,以构建和测试他们自己的 AI 应用和代理。