Llm

  • Published on
    DeepSeek在2025年3月24日发布了V3-0324版本,这次更新带来了显著的性能提升。新版本在推理能力、编程能力和中文语言处理方面都有重大突破,特别是在MMLU-Pro、GPQA等基准测试中取得了优异成绩。该模型采用MIT开源许可,包含约685亿参数,并支持高达128K的上下文长度,在AI领域树立了新的标杆。
  • Published on
    总结在AI驱动开发过程中的经验和最佳实践,包括如何更好地利用AI助手进行开发。
  • Published on
    本文提供了跟踪大语言模型(LLM)最新发展和趋势的全面资源导航,包括研究论文、技术博客、行业动态、社区讨论和开发工具等。帮助读者在快速发展的AI时代保持信息更新,紧跟前沿技术潮流,不错过LLM领域的关键进展。
  • Published on
    AI工具不仅改变了工程师的工作方式,还使更多人能够构建应用和网站。本文深入探讨了三类主要AI编程工具:通用AI聊天机器人、AI集成IDE助手和基于Web的应用生成器,分析它们的优缺点及实际应用案例,展示它们如何推动开发者生产力的新浪潮。
  • Published on
    本文详细解析检索增强生成(RAG)技术的工作原理、架构组成和应用场景,介绍如何结合信息检索与生成模型提升大语言模型在知识密集型任务中的表现。
  • Published on
    本文提供了大语言模型(LLM)学习的全面指南,涵盖官方资源、论坛、博客、论文、视频博主和下载模型等多个方面。重点介绍了OpenAI、Stability AI等前沿公司,以及Reddit、Hugging Face等社区资源。同时推荐了多个B站和YouTube上的知名AI教育频道,帮助读者获取最新的技术和实践经验。此资源指南定期更新,为AI学习者提供最新最全的学习路径。
  • Published on
    本文通过约100行代码复现了LangChain的核心功能,展示了如何利用LLM(如GPT)和工具(如搜索引擎、计算器)构建智能对话界面。作者详细介绍了从问题解析、工具调用到结果反馈的实现过程,并探讨了其背后的提示设计与推理机制。尽管简单,该实现已能处理多轮对话和复杂查询,但也揭示了当前技术的局限性。
  • Published on
    本文整理了多个人工智能入门和 ChatGPT 相关的优质视频资源,涵盖从基础概念到深入原理的讲解,适合不同层次的学习者,帮助快速理解人工智能和大模型技术。
  • Published on
    本文比较了LangChain和LlamaIndex两个框架在构建LLM应用程序时的表现,通过四个任务:连接本地LLM、构建RAG系统、结合两者及转换为代理人,帮助读者选择适合的框架。
  • Published on
    本文探讨了检索增强生成(RAG)在大型语言模型(LLM)中的重要性,解释了其如何降低成本、保持数据更新和提高透明度,并介绍了ReAct范式使LLM成为代理人的机制,推动人工智能技术的民主化。
  • Published on
    本文介绍了穆罕默德・本・扎耶德人工智能大学 VILA Lab 的一项研究,提出了26条具体的提示工程准则,旨在提升大语言模型(LLM)的性能,无需额外训练即可提高50%以上的效果。这些准则涵盖了回答内容控制、任务分解、用户交互等多个方面,帮助用户更有效地与大模型互动并获得高质量的回答。研究引起了广泛关注,并提供了详细的指南和示例。
  • Published on
    本文介绍了几种高级的Prompt编写技巧,包括CRISPE框架、Zero-Shot、Few-Shots、COT(思维链)、SC(自我一致性)、TOT(树状推理)和Step-Back。通过一个英文翻译成中文的任务示例,展示了不同Prompt模式对大语言模型输出结果的影响,并总结了每种模式的效果。文章还解释了Google在Gemini大模型评测中使用不同Prompt模式的原因,指出其在不同指标上采用不同的提示策略以优化表现。
  • Published on
    本文总结了RAG系统的7种常见问题及解决方案,涵盖内容幻觉、答案遗漏、整合限制等,并提供了优化策略,如元数据过滤、模型微调和知识库优化,提升系统性能。