Skip to main content

模型服务

LinkAI是基于大语言模型(LLM)和其他功能模型的AI应用开发平台。根据使用场景的不同,主要分为以下几类:

1. 文本对话模型

也就是通常所说的大语言模型。在智能对话生成、知识库问答、一键创建应用等场景使用的就是该类模型,也是AI应用中最主要的模型类别。你可以在创建的应用中配置需要使用的模型,或者在创建的工作流(使用到大语言模型的)节点中配置需要使用的模型。

  • 目前支持的 通用大模型 有:linkAI-3.5 linkAI-4 linkAI-4-turbo linkAI-4o linkAI-4o-miniClaude系列 Gemini系列wenxin(文心一言)系列qwen(通义千问)系列xunfei(讯飞星火)Chat-GLM(智谱)doubao(豆包)系列kimi(月之暗面)系列(1)
  • 支持的 行业大模型 有:通义法睿法律大模型
  • 使用模型的方法是:在【应用配置】-【模型设置】中设置默认模型,该模型将在网页端对话时默认使用,以及将应用接入渠道提供服务时使用;设置对话可选模型,这些模型在调试、对话,或在应用广场中由其他用户对话使用时,可供切换选择。可阅读 应用配置-模型设置 了解更多。
提示

不同模型的参数情况和训练方法不一样,能力表现也往往有所差别。一般来说,模型的参数越大,理解应用设定(提示词)及推理的能力越强,但输出速度越慢。例如,qwen系列模型中qwen-turbo、qwen-plus、qwen-max的模型参数依次提升,推理能力依次提升,但响应速度递减,成本递增。你可以根据不同情景的使用场景,结合成本的考虑,选择适合的模型使用。

模型服务资费详见计费规则

1 使用Kimi模型时采用根据上下文长度动态切换的策略。当不超过「应用配置-模型设置」中的最大上下文长度阈值时,系统将根据每次提问的总token数(应用设定+历史对话记忆+知识库检索内容+用户提问)动态选择适合的模型。
例如:模型设置为Kimi,上下文长度阈值设置为128K,当提问的总token数未超过8k时,将使用Kimi-8K模型回答;超过8K且未超过32K时,将自动使用kimi-32K模型回答;超过32K且未超过128K时,将自动使用kimi-128K模型回答。

2. 文生图模型

LinkAI的文生图模型是通过画图插件的方式提供服务,目前支持DaLL-E 3模型、Midjunery模型、豆包文生图模型。在应用中开启对应的插件,或在工作流插件节点中选择对应的插件即可使用,可阅读 插件 了解更多。

3. 图像识别模型

LinkAI的图像识别模型同样通过图像识别插件的方式提供,目前支持OpenAI图像识别模型、Claude图像识别模型、通义千问图像识别模型,以及OCR图像识别模型。在应用中开启图像识别插件并配置需要的模型,或在工作流插件节点中选择并配置即可使用,可阅读 插件 了解更多。

4. 语音模型

在LinkAI网页端、接入渠道端进行语音所使用的模型。其中,语音识别模型为系统默认,语音合成模型目前支持:OpenAI、豆包、百度。

5. 知识库Embedding模型

处理上传的知识库数据并嵌入向量数据库,以及将用户的提问内容向量化与知识库匹配所使用的的模型。该模型无需手动选择,已内置在知识库功能中。