Skip to main content

模型服务

LinkAI是基于大语言模型(LLM)和其他功能模型的AI应用开发平台。根据使用场景的不同,主要分为以下几类:

1. 文本对话模型

也就是通常所说的大语言模型。在智能对话生成、知识库问答、一键创建应用等场景使用的就是该类模型,也是AI应用中最主要的模型类别。你可以在创建的应用中配置需要使用的模型,或者在创建的工作流(使用到大语言模型的)节点中配置需要使用的模型。

  • 目前支持的 通用大模型 有:linkAI-3.5 linkAI-4 linkAI-4-turbo linkAI-4o linkAI-4o-miniClaude系列 Gemini系列wenxin(文心一言)系列qwen(通义千问)系列xunfei(讯飞星火)Chat-GLM(智谱)doubao(豆包)系列kimi(月之暗面)系列(1)
  • 支持的 行业大模型 有:通义法睿法律大模型
  • 使用模型的方法是:在【应用配置】-【模型设置】中设置默认模型,该模型将在网页端对话时默认使用,以及将应用接入渠道提供服务时使用;设置对话可选模型,这些模型在调试、对话,或在应用广场中由其他用户对话使用时,可供切换选择。可阅读 应用配置-模型设置 了解更多。
提示

不同模型的参数类型、能力表现会不一样。一般来说,模型的参数越大,理解应用设定(提示词)及推理的能力越强,但输出速度越慢。例如,qwen系列模型中qwen-turbo、qwen-plus、qwen-max的模型参数依次提升,推理能力依次提升,但响应速度递减,成本递增。你可以根据不同情景的使用场景,结合成本的考虑,选择适合的模型使用。

模型服务资费详见计费规则

1 使用Kimi模型时采用根据上下文长度动态切换的策略。当不超过「应用配置-模型设置」中的最大上下文长度阈值时,系统将根据每次提问的总token数(应用设定+历史对话记忆+知识库检索内容+用户提问)动态选择适合的模型。
例如:模型设置为Kimi,上下文长度阈值设置为128K,当提问的总token数未超过8k时,将使用Kimi-8K模型回答;超过8K且未超过32K时,将自动使用kimi-32K模型回答;超过32K且未超过128K时,将自动使用kimi-128K模型回答。

2. 文生图模型

LinkAI的文生图模型是通过画图插件的方式提供服务,目前支持DaLL-E 3生图模型和Midjunery生图模型,在应用中开启对应的插件或工作流插件节点中选择对应的插件即可使用,可阅读 插件 了解更多。

3. Embedding模型

处理上传的知识库数据并嵌入向量数据库,以及将用户的提问内容向量化与知识库匹配所使用的的模型。该模型无需手动选择,已内置在知识库功能中。

4. 语音文字转换模型

在LinkAI网页端进行语音对话或在部分接入渠道中进行语音对话所使用的模型,该模型已内置产品功能中。