术语表
通过术语表,您可以了解涵盖 AI 技术及相关领域核心术语,为您理解产品功能与技术原理提供基础概念参考。
术语类别 | 术语名称/缩写 | 定义说明 |
---|---|---|
模型与算法技术 | LoRA(Low-Rank Adaptation) | 轻量级模型微调技术 ,通过低秩矩阵分解减少微调参数,适用于文生图、大语言模型等场景。 |
LLM(Large Language Model) | 基于海量文本训练的大型语言模型,支持文本创作、问答等任务,如Qwen2.5、GLM-4。 | |
SFT(Supervised Fine-Tuning) | 利用标注数据优化预训练模型,提升特定任务表现,适用于小数据集场景。 | |
DPO(Direct Preference Optimization) | 基于人类偏好数据优化模型,提升大语言模型对话质量。 | |
Transformers | 基于自注意力机制的架构,用于NLP任务,是LLM核心架构之一。 | |
Diffusers | 生成式图像模型库,支持文生图、图生图,如Stable Diffusion。 | |
函数调用/工具调用 | 大模型调用预设函数/工具的能力,实现跨工具协同(如调用天气API)。 | |
数据与训练相关 | 数据集(Dataset) | 用于模型训练的结构化数据集合,分公开和私有,支持多种格式。 |
数据集卡片(Dataset Card) | 记录数据集元信息(许可证、语言等)的文件(README.md),帮助理解数据集。 | |
模型卡片(Model Card) | 描述模型信息的文档,含用途、局限性等,载体为模型仓库README.md。 | |
Token | 模型处理文本的基本单位,用于计算长度和计费。 | |
API与服务技术 | Serverless API | 无需管理服务器的API服务,按调用次数计费,支持文本生成等功能。 |
API流水线(API Workflow) | 可视化工作流引擎,串联多模型API实现自动化任务(如“文本→图像”生成)。 | |
访问令牌(Access Token) | API调用的身份凭证,分全资源和部分授权,绑 定资源包控制权限。 | |
模型上下文协议 MCP | 定义了模型如何请求工具执行操作、如何与环境交互,以及如何从外部系统获得结果的协议。 | |
临时令牌(Temporary Token) | 短期有效令牌,适用于客户端调用,安全性更高。 | |
故障转移机制 | 算力故障时自动切换至其他算力,通过请求头X-Failover-Enabled 启用。 | |
图像与多媒体技术 | 文生图(Text-to-Image) | 根据文本生成图像,如FLUX.1模型,可通过参数控制效果。 |
图生图(Image-to-Image) | 基于原图生成新图像,支持风格迁移、局部重绘。 | |
OCR | 从图像提取文本的技术,支持多语言、表格、公式识别。 | |
语音合成(TTS) | 将文本转为语音,支持声纹定制,如ChatTTS模型。 | |
自动语音识别(ASR) | 将语音转为文本,支持多语言和方言。 | |
部署与计算相关 | 模型引擎(Model Engine) | 托管模型部署服务,支持自定义算力,适用于生产环境。 |
端侧(Edge Device) | 边缘设备(如手机),支持部署轻量级模型,实现低延迟推理。 | |
GPU | 并行计算硬件,适用于模型训练和推理,如NVIDIA A10。 | |
vllm | 高性能LLM推理库,优化对话模型并发和延迟。 | |
Docker | 容器化工具,打包应用及环境,支持自定义配置。 | |
参数与配置相关 | Temperature | 控制生成随机性(0-1),值低输出稳定,值高更具创造性。 |
Top_p | 控制多样性(0-1),与temperature配合使用。 | |
Guidance Scale | 图像生成中控制文本提示影响程度的参数。 | |
JSON Schema | 约束模型输出格式的规范,确保生成结构化数据。 |