
阿里巴巴集团的研究人员开发了“ZeroSearch”技术,使大型语言模型在训练时无需使用外部搜索引擎即可获取搜索能力。这种方法通过监督微调将LLMs转变为检索模块,并采用“基于课程的推出策略”,逐步降低生成文档的质量。 在七个问答数据集的测试中,ZeroSearch的表现与使用真实搜索引擎训练的模型相匹敌或更胜一筹。一款7B参数的检索模块的表现与Google Search相当,而14B参数版本则超越了它。 成本节约显著:使用SerpAPI通过Google Search进行64,000个搜索查询的训练费用大约为586.70刀,而使用14B参数的模拟LLM在四个A100 GPU上的费用仅为70.80刀,降低了88%。该技术适用于多种模型系列,包括Qwen-2.5和LLaMA-3.2。 研究人员已在GitHub和Hugging Face上发布了他们的代码、数据集和预训练模型,这可能降低了较小AI公司开发复杂助手的准入门槛。