What is llm? llm news, llm meaning, llm definition - Blockchain.News
Search results for

llm

Character.AI 提升 AI 推理效率,成本降低 33 倍

Character.AI 提升 AI 推理效率,成本降低 33 倍

Character.AI 宣布在 AI 推理技术方面取得重大突破,自上线以来服务成本降低了 33 倍,使大语言模型 (LLM) 更具可扩展性和成本效益。

IBM研究院推出具有投机解码功能的低成本AI推理

IBM研究院推出具有投机解码功能的低成本AI推理

IBM研究院开发了一种结合分页注意机制的投机解码技术,大大提升了大型语言模型(LLM)推理的成本性能。

Oracle 推出 HeatWave GenAI 的数据库内 LLM 和自动向量存储功能

Oracle 推出 HeatWave GenAI 的数据库内 LLM 和自动向量存储功能

Oracle 的 HeatWave GenAI 现在提供数据库内 LLM 和自动向量存储功能,使生成式 AI 应用无需 AI 专业知识或额外成本。

LangChain推出用于LLM判定的自我改进评估器

LangChain推出用于LLM判定的自我改进评估器

LangChain的新自我改进评估器旨在通过利用少量学习和用户反馈,将AI输出与人类偏好对齐。

确保完整性:保护LLM Tokenizer免受潜在威胁

确保完整性:保护LLM Tokenizer免受潜在威胁

NVIDIA的AI红队强调了保护LLM Tokenizer以保持应用程序完整性和防止被利用的风险及对策。

理解 AI 代理的角色和能力

理解 AI 代理的角色和能力

根据 LangChain Blog,探索 AI 代理的概念、它们的不同自主程度,以及代理行为在 LLM 应用中的重要性。

NVIDIA H100 GPUs 和 TensorRT-LLM 实现 Mixtral 8x7B 的突破性性能

NVIDIA H100 GPUs 和 TensorRT-LLM 实现 Mixtral 8x7B 的突破性性能

NVIDIA 的 H100 Tensor Core GPU 和 TensorRT-LLM 软件展示了 Mixtral 8x7B 模型在 FP8 精度下的破纪录性能。

AssemblyAI通过LLM整合增强语音AI功能

AssemblyAI通过LLM整合增强语音AI功能

AssemblyAI引入了与LangChain、LlamaIndex和Twilio的整合新功能,以利用大型语言模型(LLM)增强语音AI应用程序。

NVIDIA NIM 提升多语言 LLM 部署

NVIDIA NIM 提升多语言 LLM 部署

NVIDIA NIM 引入了对多语言大型语言模型的支持,通过 LoRA 调整适配器提升全球业务的沟通和效率。

WordSmith 通过集成 LangSmith 增强法律 AI 操作

WordSmith 通过集成 LangSmith 增强法律 AI 操作

WordSmith 利用 LangSmith 进行原型开发、调试和评估 LLM 的性能,提升内部法律团队的工作效率。

NVIDIA NeMo 增强企业的大型语言模型定制化

NVIDIA NeMo 增强企业的大型语言模型定制化

NVIDIA NeMo 使企业能够根据领域特定需求定制大型语言模型,提高部署效率和性能。

NVIDIA NeMo 通过混合状态空间模型集成增强LLM能力

NVIDIA NeMo 通过混合状态空间模型集成增强LLM能力

NVIDIA NeMo 引入了对混合状态空间模型的支持,显著提升了大语言模型的效率和能力。

LangChain 增强核心工具接口和文档

LangChain 增强核心工具接口和文档

LangChain 对其核心工具接口和文档进行了关键改进,简化了工具集成、输入处理和错误管理。

通过少样本提示提升LLM工具调用性能

通过少样本提示提升LLM工具调用性能

LangChain的实验揭示了少样本提示如何显著提升LLM工具调用的准确性,特别是针对复杂任务。

NVIDIA和Meta合作推出Llama 3.1和NeMo Retriever NIMs的先进RAG管道

NVIDIA和Meta合作推出Llama 3.1和NeMo Retriever NIMs的先进RAG管道

NVIDIA和Meta推出了可扩展的代理RAG管道,配备Llama 3.1和NeMo Retriever NIMs,优化了LLM性能和决策能力。

Codestral Mamba:NVIDIA 下一代代码 LLM 革新代码补全

Codestral Mamba:NVIDIA 下一代代码 LLM 革新代码补全

NVIDIA 的 Codestral Mamba,基于 Mamba-2 架构,使用先进的 AI 技术革新了代码补全,提升了编程效率。

AMD Instinct MI300X 加速器提升大语言模型性能

AMD Instinct MI300X 加速器提升大语言模型性能

AMD 的 MI300X 加速器,通过高内存带宽和容量,增强了大语言模型的性能和效率。

NVIDIA 推出 NeMo Curator,用于定制 LLM 数据集的高效微调

NVIDIA 推出 NeMo Curator,用于定制 LLM 数据集的高效微调

NVIDIA 的 NeMo Curator 提供了一种简化的方法,通过定制数据集微调大型语言模型 (LLM),优化机器学习工作流程。

LangSmith 通过动态少样本示例增强 LLM 应用程序

LangSmith 通过动态少样本示例增强 LLM 应用程序

LangSmith 引入了动态少样本示例选择器,通过根据用户输入动态选择相关示例,提高 LLM 应用程序的性能。

LangGraph v0.2 通过新检查点器库增强定制功能

LangGraph v0.2 通过新检查点器库增强定制功能

LangGraph v0.2 引入了新的检查点器库,包括 SQLite 和 Postgres 选项,以增强大型语言模型 (LLM) 应用的定制性和弹性。

NVIDIA NIM 微服务提升大语言模型推理效率

NVIDIA NIM 微服务提升大语言模型推理效率

NVIDIA NIM 微服务优化大语言模型的吞吐量和延迟,提高了 AI 应用程序的效率和用户体验。

LangSmith引入灵活的数据集模式以提高数据管理效率

LangSmith引入灵活的数据集模式以提高数据管理效率

据LangChain博客报道,LangSmith现在提供灵活的数据集模式,以实现高效和迭代的数据管理,适用于LLM应用程序。

NVIDIA TensorRT-LLM 提升希伯来语 LLM 性能

NVIDIA TensorRT-LLM 提升希伯来语 LLM 性能

NVIDIA 的 TensorRT-LLM 和 Triton Inference Server 优化了希伯来语大型语言模型的性能,克服了独特的语言挑战。

Circle 和 Berkeley 利用 AI 进行区块链交易的 TXT2TXN

Circle 和 Berkeley 利用 AI 进行区块链交易的 TXT2TXN

Circle 和 Blockchain at Berkeley 推出了 TXT2TXN,这是一款使用大型语言模型的 AI 驱动工具,通过基于意图的应用简化区块链交易。

NVIDIA 推出高效 LLM 的剪枝和蒸馏技术

NVIDIA 推出高效 LLM 的剪枝和蒸馏技术

NVIDIA 介绍了结构化剪枝和蒸馏方法,以创建高效的语言模型,显著减少资源需求,同时保持性能。

Anyscale 探索使用合成数据进行直接偏好优化

Anyscale 探索使用合成数据进行直接偏好优化

Anyscale 最新的博客文章深入研究了使用合成数据的直接偏好优化 (DPO),重点介绍了其方法和在调优语言模型中的应用。

理解大型语言模型 (LLMs) 的解码策略

理解大型语言模型 (LLMs) 的解码策略

探讨大型语言模型 (LLMs) 如何使用解码策略选择下一个词。了解不同的方法如贪心搜索、束搜索等。

麻省理工学院研究揭示AI在保护关键基础设施中的潜力

麻省理工学院研究揭示AI在保护关键基础设施中的潜力

麻省理工学院的新研究表明,大型语言模型 (LLMs) 可以高效地检测关键基础设施系统中的异常,提供了一种即插即用的解决方案。

NVIDIA的Blackwell平台在MLPerf Inference v4.1中打破新记录

NVIDIA的Blackwell平台在MLPerf Inference v4.1中打破新记录

NVIDIA的Blackwell架构在MLPerf Inference v4.1中设立了新的基准,展示了在LLM推理方面显著的性能提升。

AMD Radeon PRO GPU和ROCm软件扩展LLM推断能力

AMD Radeon PRO GPU和ROCm软件扩展LLM推断能力

AMD的Radeon PRO GPU和ROCm软件使小型企业能够利用包括Meta的Llama模型在内的高级AI工具,用于各种业务应用。

LangGraph.js v0.2 增强JavaScript代理,支持云和Studio

LangGraph.js v0.2 增强JavaScript代理,支持云和Studio

LangChain发布LangGraph.js v0.2,新增构建和部署JavaScript代理的功能,包括对LangGraph Cloud和LangGraph Studio的支持。

Ollama 实现 Llama 3.2 在 AMD GPU 上的本地运行

Ollama 实现 Llama 3.2 在 AMD GPU 上的本地运行

Ollama 使本地在 AMD GPU 上运行 Meta 的 Llama 3.2 模型变得更加容易,支持 Linux 和 Windows 系统。

NVIDIA 和 Outerbounds 改革 LLM 驱动的生产系统

NVIDIA 和 Outerbounds 改革 LLM 驱动的生产系统

NVIDIA 和 Outerbounds 合作,通过先进的微服务和 MLOps 平台简化 LLM 驱动的生产系统的开发和部署。

创新的 LoLCATs 方法提升 LLM 的效率和质量

创新的 LoLCATs 方法提升 LLM 的效率和质量

Together.ai 引入了 LoLCATs,这是一种用于线性化 LLM 的新方法,提升了效率和质量。该方法有望在 AI 模型开发中带来显著改进。

LangChain庆祝两周年:反思里程碑与未来方向

LangChain庆祝两周年:反思里程碑与未来方向

LangChain迎来其两周年纪念,强调其从Python包到LLM应用领域领先公司的演变,并介绍LangSmith和LangGraph。

使用 NVIDIA Triton 和 TensorRT-LLM 在 Kubernetes 上增强大型语言模型

使用 NVIDIA Triton 和 TensorRT-LLM 在 Kubernetes 上增强大型语言模型

探索 NVIDIA 使用 Triton 和 TensorRT-LLM 优化大型语言模型的方法,同时在 Kubernetes 环境中高效地部署和扩展这些模型。

提升RTX上LLM性能:利用LM Studio和GPU卸载

提升RTX上LLM性能:利用LM Studio和GPU卸载

探索如何通过LM Studio实现的GPU卸载在RTX系统上高效地本地执行大型语言模型,从而增强AI应用程序的性能。

探索大型语言模型(LLM)的模型合并技术

探索大型语言模型(LLM)的模型合并技术

根据NVIDIA的观点,了解如何通过重新利用资源和提升任务特定性能来提高大型语言模型的效率。

NVIDIA 开发基于 RAG 的 LLM 工作流以增强 AI 解决方案

NVIDIA 开发基于 RAG 的 LLM 工作流以增强 AI 解决方案

NVIDIA 正在通过开发基于 RAG 的问答 LLM 工作流来提升 AI 功能,提供有关系统架构和性能改进的见解。

Trending topics