
拆解 | 88元, 国产开源ESP32小智AI机器人,搭载DeepSeek、通义Qwen2.5-Max
AI智能硬件大爆发,总有一款适合你, 小智AI聊天机器人是一款基于乐鑫ESP32-S3核心板,搭载多种开源AI大模型( DeepSeek、OpenAI 、通义Qwen),通过对话角色自定义、海量知识库、长期记忆、语音声纹识别等功能。它不仅是...
AI智能硬件大爆发,总有一款适合你, 小智AI聊天机器人是一款基于乐鑫ESP32-S3核心板,搭载多种开源AI大模型( DeepSeek、OpenAI 、通义Qwen),通过对话角色自定义、海量知识库、长期记忆、语音声纹识别等功能。它不仅是...
大家好,上一期关于Magic MCP的教程大家反响十分强烈,这一期分享一下我在使用Magic MCP的小技巧。 一、针对上一期《如何在Cursor中使用Magic MCP生成好看的UI》中部分内容的勘误 1、首先,先对上一期文章做个勘误,在...
Today, I have compiled a list of 32 Python web scraping projects for everyone. I’ve gathered these projects because web ...
DeepSeek近一个月来一直遭受大量海外攻击,1月27日起手段升级,除了DDos攻击,分析发现还包括了大量的密码爆破攻击,时常宕机。正好上一篇文章有人建议用AnythingLLM套个壳子会更舒服,再加上官网的服务有点不太稳定,所以今天才到...
作者:小布Bruce ProductHunt是一个帮助人们发现、讨论和点评新产品的社区,每月网站的访问量能达到450万左右,此外Product Hunt在Twitter等社交媒体上有超过百万的关注者,总之,这个社区里面聚集了大量海外的Ear...
文章目录基本条件一、下载HACS源码二、添加HACS集成三、绑定米家设备 上文介绍了如何实现群晖Docker部署HomeAssistant,通过内网穿透在户外控制家庭中枢。本文将介绍如何安装HACS插件商店,将米家,果家设备接入 Hom...
Ant design x AGI设计之路 确认|生成过程 在用户向 AI 表达意图后等待 AI 回复的过程中,需向用户展示 AI 处理请求、生成内容或执行任务的进程与状态。 设计目标 处理过程反馈需要通过流式输出等方式给予用户及时...
图片来源:a16z 这是关于垂直 SaaS 的三部分系列中的第二部分。 第一部分:喝点VC | a16z:垂直SaaS正被AI彻底改造,AI将让SaaS赚取更多收入 在本系列的第一部分中,我们写到了人工智能如何使垂直 SaaS 公司承担以前...
编辑:Sia 这个 AI 科代表,可以领回家了。 听播客,尤其是时长几小时的硬核类节目,是件特别花时间的事情。为了不听也能 get 到内容,今年 3 月,我们利用了大模型( AI 在用 | 有了这个超级提示和Claude 3,不听...
OpenAI、Anthropic 竞争加剧,微软谷歌抢占端到端高地。 作者丨刘洁 编辑丨岑峰 最近,Menlo Ventures 针对拥有 50 名以上员工的公司的 600 名企业 IT 决策者进行调查,发布了一份名为《2024 年生成式 ...
理解AI智能体领域格局
尽管我们看到许多智能体技术栈和市场分布图,但我们倾向于不认同它们的分类方式,并发现这些分类很少能真实反映开发者实际使用的工具。过去几个月,AI智能体软件生态系统在记忆能力、工具调用、安全执行和部署等方面取得了显著进展。基于我们在开源AI领域一年多的实践经验和七年以上的AI研究积累,我们决定分享自己构建的"智能体技术栈",以呈现更贴合行业实践的技术全景。
从大型语言模型到智能体的演进
2022至2023年间,我们见证了LangChain(2022年10月发布)和LlamaIndex(2022年11月发布)等LLM框架和SDK的崛起。与此同时,通过API调用LLM服务的标准化平台逐渐成熟,自主部署LLM推理的技术(如vLLM和Ollama)也形成了稳定生态。
进入2024年,行业关注点显著转向AI"智能体"及更广义的复合系统。尽管"智能体"作为强化学习领域的概念已存在数十年,但在ChatGPT时代,它被重新定义为一种由LLM驱动、能自主输出行动指令(工具调用)的系统。这种结合工具调用、自主运行和记忆能力的范式,标志着从基础LLM向智能体的跨越,也催生了新一代智能体技术栈的兴起。
智能体技术栈的独特之处是什么?与基础的LLM聊天机器人相比,智能体是一个显著更复杂的工程挑战,因为它们需要状态管理(保留消息/事件历史、存储长期记忆、在智能体循环中执行多次LLM调用)和工具执行(安全执行LLM输出的动作并返回结果)。因此,AI智能体技术栈与标准LLM技术栈截然不同。让我们从底层的模型服务层开始拆解当今的AI智能体技术栈:
模型服务层(Model Serving)
在AI智能体的核心是大型语言模型(LLM)。要使用LLM,需要通过推理引擎部署模型,最常见的方式是付费API服务。
存储层
存储是智能体(具有状态)的基础构建模块——智能体的核心特征在于其持久化状态,包括对话历史、记忆以及用于RAG的外部数据源。
工具与库层
标准AI聊天机器人与AI智能体的核心区别在于,智能体具备调用"工具"(或"函数")的能力。在大多数情况下,这种操作的机制是LLM生成结构化输出(例如JSON对象),指定要调用的函数及其参数。关于智能体工具执行的一个常见误解是:工具执行并非由LLM提供商完成——LLM仅负责选择要调用的工具和提供参数。支持任意工具或任意参数的智能体服务必须使用沙箱(如Modal、E2B)来确保安全执行。
所有智能体都通过OpenAI定义的JSON Schema调用工具——这意味着不同框架的智能体和工具实际上可以互相兼容。例如Letta的智能体可以调用LangChain、CrewAI和Composio的工具,因为它们都遵循相同的Schema规范。因此,针对常见工具的供应商生态正在快速成长:
随着更多智能体的开发,我们预计工具生态将持续扩展,并为智能体提供身份验证、访问控制等新功能。
智能体框架
智能体框架负责编排LLM调用并管理智能体状态。不同框架在以下方面存在设计差异:
每次调用LLM时,框架会将智能体状态"编译"到上下文窗口中。不同框架以不同方式组织上下文窗口内的数据(如指令、消息缓冲区),这直接影响智能体性能。建议选择能透明化上下文窗口管理的框架,以便精确控制智能体行为。
3. 多智能体通信
4. 内存管理方法
为突破LLM上下文窗口限制,各框架采用不同内存管理技术:
5. 开源模型支持
选择框架的关键考量
当前构建智能体时,框架选择应基于具体需求:
未来框架的核心差异将体现在部署流程中,状态/内存管理和工具执行的设计决策将更具决定性。
智能体托管和服务
当前大多数智能体框架的设计仍局限于Python脚本或Jupyter Notebook的本地运行环境。但我们认为,未来的智能体应被视为可部署到本地或云端基础设施的服务,通过REST API访问。正如OpenAI的ChatCompletion API成为LLM服务的行业标准,我们预计未来会出现统一的智能体API标准——尽管目前这一领域尚未形成明确领导者。
部署智能体服务的核心挑战
与部署LLM服务相比,智能体服务的部署复杂性显著增加,主要源于:
状态管理:
工具执行安全:
API标准化:
当前实践与未来趋势
langserve
模块可自动将智能体转换为REST API。train/eval
模式切换。关键决策点
选择智能体托管方案时需评估:
未来,智能体框架的竞争焦点将从"原型构建能力"转向"生产就绪性",而部署工作流的成熟度将成为核心差异化因素。
今天凌晨,奥特曼突然发文宣布推出自家最新的 o 系列模型:满血版 o3 和 o4-mini,同时表示这两款模型都可以自由调用 ChatGPT 里的各种工具,包括但不限于图像生成、图像分析、文件解释、网络搜索、Python。
总的来说,就是比前一代的性能更强而且价格更低。
消息一出,马上就有网友晒出了两个模型的“小球测试”结果,并配文:“这确实是迄今为止看到的最好的测试结果了。”
视频加载失败,请刷新页面再试
刷新
也有网友晒出了满血版 o3 和 o4-mini 在 HLM 基准的中的排名,其中 OpenAI 的两款新模型仅用了几个小时的时间就稳稳的“盘”上了榜单前三,引得网友大呼震惊。
1:o3 与 o4 mini 全面进化
除了网友们的测评结果外,我们也来看一下 OpenAI 给出的两个模型的官方数据。
首先,o3 在多个基准测试中表现优异,包括 Codeforces、SWE-bench 和 MMMU 等,刷新了多项纪录。除此之外,o3 在应对复杂现实任务时,比 OpenAI o1 减少了 20% 的重大错误,尤其在编程、商业咨询和创意构思领的方面能力最为突出。
o4 mini 这边,别看它体量不大,但专为快速、高效的推理任务而设计,可以支持比 o3 更高的使用频率。
在数学、编程和视觉任务上的表现依然非常亮眼。在 2025 年 AIME 数学竞赛中,借助 Python 解释器的帮助,o4-mini 取得了99.5%的高分,几乎达到了该测试的满分水平。专家评估同样显示,它在非 STEM 任务以及数据科学领域的表现已经超越了 o3-mini。
此外,o3 和 o4-mini 首次实现了将图像直接融入思维链的能力,它们不仅“看得见”图像,更能“通过图像思考”。这带来了视觉与文本推理的全新融合方式,显著提升了它们在多模态任务中的表现。
关于这点,OpenAI 图像推理研究员 Jiahui Yu 发文称:“自最初推出 o 系列以来,“图像思考”始终是我们在感知领域的核心战略之一。早期发布的 o1 vision,曾为这一方向提供了初步的探索与预览;而如今,随着 o3 和 o4-mini 的发布,这一战略终于以更为成熟和完整的形式落地。多模态能力的持续演进,不仅推动了模型在理解世界方式上的跃升,也成为 OpenAI 实现 AGI 愿景中不可或缺的关键一环。”
模型性能毋庸置疑,而关于这两款模型可以自由调用 ChatGPT 里的各种工具的能力,OpenAI 首席研究官 Mark Chen 也发文表示:一旦推理模型学会了端到端地使用工具,它们就会变得更加强大,而最新的 o 系列模型正在“向未来迈出的质的一步”。
所谓“质的一步”,无非是将大模型的能力扩展到目前最火的 Agent 领域,值得一提的是,这已经不是 OpenAI 第一次向 Agent 领域进发了。
今年年初,OpenAI 接连推出 Operator 和 Deep Research 两个产品宣告向 Agent 进发,在此之前,他们还推出过一个类似于代办助手的 Agent 产品 —— ChatGPT tasks,来试了试水花。
而这次的满血版 o3 和 o4 mini 则是支持直接调用 ChatGPT 里的各种工具,从之前的“聪明大脑”直接进化为了“灵巧双手”。
有网友在试过了 o3 最新模型的调用能力后表示,模型帮他做了一些需要跨工具才能完成的工作,这让他感觉到了 Agent 给人们带来的便捷。
2OpenAI 做 Agent,得天独厚
关于如何才能做出真正的 Agent,目前坊间的主流观点是:强化学习加基座模型。
但在 Agent 的实际研发中,大多数专注于 Agent 的公司并不具备自研基座模型的能力,能够组建强化学习团队的更是凤毛麟角。它们唯一的机会,往往在于依靠强悍的工程能力持续打磨产品体验,或通过差异化定位,探索某些功能层面的创新。
然而,由于缺乏底层模型的掌控权,这样的努力终究只是为自己在与大模型公司的赛道上争取些许缓冲时间。正因如此,那些具备训练基础模型能力的公司,在开发 Agent 时,往往能够实现事半功倍的效果,占据天然优势。
巧合的是,Deep Research 团队曾在多次访谈中强调,他们认为基于强化学习的端到端训练是当前 Agent 技术变革的关键所在,原因在于强化学习能够有效突破传统 AI 系统在复杂场景中面临的灵活性不足和泛化能力受限的问题。
在此基础上,叠加 OpenAI 本身在基础模型上的强大优势,或许不久之后,Agent 就会被吃进 ChatGTP 的某个版本之中。
一位长期从事 Agent 方向的研究人员曾对 AI 科技评论表示:“用强化学习训练 Agent,本质上更像是将语言模型的能力在特定环境中进行定向强化和适配。也就是说,强化学习更多是在帮助语言模型在某一特定场景中“训得很好”。然而,目前许多学术研究仍停留在使用较基础的 base model 进行环境内训练,这样的工作即便做到极致,其成果也往往只是某个环境下的“特化版本”,难以实现跨环境的泛化能力,因此其实际意义和应用价值仍然有限。”
顺着这个点往下看,不难发现其实 OpenAI 已经同时掌握了基础模型和训练方式,拥有从底层能力到上层产品的完整控制权,也因此在定价方便拥有了更大的自主权。
例如,Deep Research 的 Agent 以每月 200 美金的价格对外订阅,全部收入可以留在体系内部,而那些依赖第三方模型的独立 Agent 团队,不仅受到 API 成本和模型性能波动的限制,在产品定价上也显得捉襟见肘。
“略知皮毛”不如洞彻本质,“套壳”并不是长久之计,这么一看,OpenAI 做 Agent,就得天独厚。3开源 Codex CLI
新模型之外,OpenAI 还开源了一款本地代码智能体:Codex CLI。它是一个轻量级的编码助手,可直接在用户的终端命令行中运行,为的是充分发挥 o3、o4-mini 等模型的推理能力,紧密连接本地开发环境,未来还会支持 GPT 4.1 等其他模型。
值得一提的是,它甚至支持通过截图或手绘草图进行多模态编程,直接刷新了代码交互与内容理解的边界。
为了测试这个功能,在发布会的直播中,开发人员还现场用 Codex CLI 展示了一波实施摄影的 ASCII 画面,让不少直播间网友大呼:“Intresting!”
参考链接:
AI智能硬件大爆发,总有一款适合你,
小智AI聊天机器人是一款基于乐鑫ESP32-S3核心板,搭载多种开源AI大模型( DeepSeek、OpenAI 、通义Qwen),通过对话角色自定义、海量知识库、长期记忆、语音声纹识别等功能。它不仅是智能工具,更是一个真正“懂你”的AI助理,致力于为每一天增添温暖和便利。无论是在解决问题还是分享快乐,小智AI聊天机器人都以独特的智慧和温柔的方式,使科技更加有温度,生活更美好。
小智AI聊天机器人功能介绍
无论是科学知识、历史文化,还是生活常识、娱乐八卦,小智AI聊天机器人都能信手拈来,让每一次对话都充满趣味和惊喜。用户可以与小智AI聊天机器人畅聊各种话题,从宇宙奥秘到生活琐碎,都能得到有趣又有心意的答复。
此外,小智AI聊天机器人还支持对话角色自由切换定制,不同性格特长的对话角色可以满足用户的一切对话需求。无论是幽默风趣的喜剧演员,还是博学多才的学者,亦或是温柔体贴的知心朋友,小智AI聊天机器人都能轻松扮演,为用户带来百变的AI 身份体验。
小智AI聊天机器人外壳采用3D建模一体成型打印,优势如下:
小智AI聊天机器人硬件
小智AI聊天机器人核心设计:
供电管理:
信号处理:
小智AI聊天机器人核心模块清单如下:
小智AI聊天机器人电路设计
首先经过type-C 输入的5V电压,默认type-c输入5V,5V给TP4056给锂电池充电,同时锂电池通过升压电路将电压升到5V,通过电源转换电路实现5V输出,当有USB插入时候,5V电源自动切换到USB5V电源路径,当USB电源断开时候实现锂电池升压5V输出,两路电源切换,在切换时候整个系统不会断电;5V电压通过LDO线性稳压实现3.3V输出,3.3V电源分别给主控ESP32、SD卡、数字麦克风和屏幕供电,此外5V还直接给功放和RGB灯供电。
外壳采用防滑纹路设计,底部有4个防滑垫片,可以放置与桌面而不出现打滑情况,屏幕镶嵌与前外壳,美观而有不会出现平置出现划痕,后盖使用响枪加下螺丝锁住,螺丝不外露同时能卡住后外壳,整体简洁美观。
小智AI聊天机器人硬件源码
小智AI聊天机器人项目源码:
小智AI聊天机器人服务端源码
服务端每个功能模块采用独立的目录,便于开发和维护,提高系统的可扩展性和可维护性。
asr-server
+asr-worker
:提供语音活动监测、语音转文本、说话人识别等服务;tts-server
:提供音色管理、音色克隆、语音合成等服务,对接本地部署的语音模型;main-server
:主服务,负责协调语音识别、大模型、语音合成等各种服务,并对接后端数据库。小智AI聊天机器人服务端源码:
https://github.com/xinnan-tech/xiaozhi-esp32-server
Amazon 上也已经有了同类产品
票数:539
官网链接:https://naoma.ai
标签:销售、人工智能、数据分析
一句话介绍:Naoma通过AI深度分析CRM中的销售对话数据,识别顶尖销售人员的沟通模式并提供个性化改进建议,帮助销售团队规模化复制成功经验,解决传统人工复盘效率低、经验难沉淀的痛点。
小编解读:中国电销团队常面临新人培训周期长、优秀话术难复制的困境,Naoma的"关键节点标记+脚本对齐分析"模式可启发开发本地化版本,比如结合微信语音记录分析,将销冠的破冰技巧自动转化为可执行SOP。
票数:444
官网链接:https://www.openjobs-ai.com
标签:人工智能、智能搜索、职业规划
一句话介绍:该产品通过自然语言对话精准匹配职位需求,为求职者提供智能优化的一站式解决方案,高效解决海投低效、简历优化难的痛点。
小编解读:国内求职市场信息过载严重,可借鉴其自然语言处理技术,结合BOSS直聘等平台用户行为数据,构建更精准的岗位需求预测模型,降低求职者试错成本。
票数:271
官网链接:https://apps.apple.com/app/id6450440460
标签:iOS、音乐、苹果应用、乐器模拟、创意小部件
一句话介绍:该产品通过无需启动应用即可在Widget、锁屏和动态岛弹奏的高质量钢琴模拟器,结合30多种乐器音色和沉浸式触控体验,解决了音乐爱好者随时捕捉灵感的需求,让创作和学习更加便捷高效。
小编解读:在国内移动应用高度竞争的背景下,该产品巧妙利用iOS系统的小组件和动态岛特性,将工具与场景无缝融合,为国内开发者展示了如何通过系统级入口提升用户使用频次——比如在锁屏界面直接调取钢琴,这种“零步触达”的设计极大降低了创作门槛。
票数:258
官网链接:https://www.illustration.app
标签:设计工具、SaaS、人工智能
一句话介绍:该产品通过AI技术实现秒级生成可定制矢量插图,解决了设计师、开发者和营销人员在寻找个性化视觉素材时面临的版权限制、高成本和创作门槛问题,提供可商用的一键式高质量图形解决方案。
小编解读:国内UI设计和自媒体领域长期面临「版权贵」「改图难」痛点,该产品的AI即时生成模式为中小团队提供合规素材新思路,其SVG输出特性尤其适配国内设计师高频迭代的移动端适配需求。
票数:238
官网链接:https://sindresorhus.com
标签:Mac,菜单栏应用,趣味工具,光标互动,桌面美化
一句话介绍:该产品通过在Mac菜单栏嵌入动态眼睛,实时跟随光标移动并在点击时触发眨眼动画,为追求个性化办公体验的用户提供轻松解压的视觉互动,缓解工作疲劳。
小编解读:国内办公软件普遍缺乏趣味性交互,参考该产品“光标感知+微动画”的设计逻辑,可开发融入二十四节气动效或国风元素的菜单栏插件,满足年轻用户对工作场景娱乐化的需求,同时保持工具轻量化避免干扰效率。
票数:143
官网链接:https://apps.apple.com/us/app/timedive-guess-year-place/id6739967794
标签:用户体验、免费游戏、历史解谜、多人竞技、地理挑战
一句话介绍:这款通过观察建筑细节与地理线索进行时空解谜的游戏,以多人竞技和每日挑战模式,让历史爱好者和推理玩家在趣味积分赛中感知时代变迁。
小编解读:TimeDive的"画面线索+地图定位+时间竞猜"玩法,为国内知识类游戏提供新思路——可结合本地历史地标设计关卡,用短视频传播高光推理片段,增强社交传播性。
大家好,上一期关于Magic MCP的教程大家反响十分强烈,这一期分享一下我在使用Magic MCP的小技巧。
1、首先,先对上一期文章做个勘误,在测试在Cursor中调用Magic MCP时提示调用出错了,打开里面的调用结果提示502的服务器错误。
2、但是这时在21st.dev的官网API页面查看调用居然是成功的!消耗了2个request,就挺无语。怀疑是输出太长导致的超时,但是目前还没有找到具体配置调用MCP server超时时间的方法。
3、因此上一期的网站实际上是使用了Claude 3.7 thinking原生的设计能力完成的UI设计,在此对上一期中出现的纰漏和大家道个歉。
4、实际上Claude 3.7 thinking设计能力非常强悍,审美也是相当之高,单纯使用Claude3.7去做产品原型设计或者网站UI设计也是几乎可以满足需求的,这里再给大家分享一下做的另外一个测试网站。
1、使用 /ui 快速调用Magic MCP。
2、多次测试发现使用smithery.ai生成的命令在Cursor中调用Magic MCP不稳定,换成官方的mcp.json就正常了。cursor setting的MCP页面中才能看到Magic MCP服务器显示绿色可用状态,可以看到可以使用的tools。
"magic-mcp": {"command": "npx","args": ["-y","@21st-dev/magic@latest", "--config","API_KEY=\"YOUR-KEY\""]}
3、因此目前我会在使用前先问一下当前这个Magic MCP是否可以正常调用。如果result中可以正常返回代码说明可以调用成功。
4、目前在Cursor中使用Magic MCP问题还比较多,有条件也可以在Claude客户端中使用。
更多关于AI工具、Cursor、MCP相关的教程和资讯请持续关注我后续的分享!
-END-
2025 年版的 AI 50 强名单显示了公司如何使用代理和推理模型来承担真实的企业工作流程
人工智能将在 2025 年进入一个新的阶段。多年来,AI 工具主要根据命令回答问题或生成内容,而今年的创新是关于 AI 真正完成工作。2025 年福布斯 AI 50 强榜单说明了这一关键转变,因为其中的初创公司标志着 AI 从仅响应提示的 AI 转变为解决问题并完成整个工作流程的 AI。尽管围绕 OpenAI、Anthropic 或 xAI 等大型 AI 模型制造商的讨论很多,但 2025 年最大的变化在于这些使用 AI 产生实际业务成果的应用层工具。
从聊天机器人到完成工作流程
从历史上看,AI 助手可以聊天或提供信息,但人类仍然必须根据输出进行作。到 2025 年,这种情况将发生变化。例如,法律 AI 初创公司 Harvey 表明,其软件不仅可以回答法律问题,还可以处理从文档审查到案件预测分析的整个法律工作流程。它的平台可以起草文件、提出修改建议,甚至帮助自动化谈判、案件管理和客户联系——这些任务通常需要一个初级律师团队才能完成。这一成就使 Harvey 在福布斯 AI 50 强榜单上占有一席之地,它体现了 AI 从有用的工具演变为动手解决问题者。
引领潮流的企业工具
许多杰出的 AI 50 公司都是从事在职工作的企业工具。Sierra 和 Cursor 是初创公司 Anysphere 的唯一产品,是新一代商业 AI 的象征。Sierra 实现了客户服务自动化,同时大大改善了体验,为公司随时为客户提供帮助开辟了道路。与此同时,Cursor 已经席卷了软件开发人员社区。它的技术不仅允许任何人自动完成代码行(就像 GitHub CoPilot),而且只需用简单的英语请求即可生成整个功能和应用程序。
机器人技术正在崛起
尽管我们还没有达到公司大规模部署机器人的地步,但专注于机器人技术的初创公司在过去一年中取得了有意义的进步,因为它们将使用变压器(ChatGPT 中的“t”)构建的模型与硬件集成在一起。在 Nvidia 最近的开发者大会上,机器人技术在 Nvidia 的主题演讲中占据了突出位置,Jensen Huang 声称,“ 用于工业和机器人的物理 AI 是一个 50 万亿美元的机会 。Figure AI 最近宣布了其 BotQ 大批量制造工厂,该工厂每年能够生产 12,000 个类人机器人,以及其新的通用视觉-语言-行动 (VLA) 模型 Helix。另一家 AI 50 强公司 Skild AI 正在采取不同的方法,专注于开发通用机器人基础模型 Skild Brain,该模型可以集成到各种机器人中,而不是构建自己的机器人。Skild 还计划向使用 Skild Brain 的机器人行业销售服务。
处于 AI 生产力风口浪尖的消费者
到目前为止,日常消费者主要通过 OpenAI 的 ChatGPT 或 Anthropic 的 Claude(以及 Grok 等新来者)等聊天机器人接触到高级 AI。数亿人尝试使用这些 AI 工具,但我们还没有看到一个真正的主流应用程序,让 AI 为人们完成日常任务。这种情况可能会在 2026 年改变。随着技术的成熟,以及人们意识到 AI 如何在工作中节省时间和金钱,预计会出现一波面向消费者的 AI 产品,这些产品可以代表用户处理整个任务。例如,Anthropic 最近推出了 Claude Code,使消费者能够编写软件。这些新功能提高了 AI 能够端到端管理您的日程安排、预订旅行或组织文件的前景。
2025 年是转折点,2026 年是更广泛采用
今年是一个转折点:AI 从应答引擎毕业为工作场所的行动引擎 。2025 年 AI 50 强公司证明,AI 可以被信任处理有意义的工作负载并提供实际结果,为更广泛的采用奠定了基础。随着我们进入 2026 年,预计企业收益将开始蔓延到日常生活中。准确性和安全性等挑战仍然存在,但势头是不可否认的。到 2025 年,AI 将完成真正的工作。