Geek头条(2026-03-30)

  • 别再用 AI 疯狂撸代码了!我们正在把自己逼入“死胡同” - Tony Bai

    这篇博客作者Tony Bai警示了近期AI代码生成的泡沫化倾向。他指出,虽然Copilot、Cursor、Claude Code等工具让开发者能在几小时内完成Side Project,甚至让CEO宣称“80%代码由AI写”,但随之而来的是系统质量急剧下降:生成的代码常出现内存泄漏、UI异常、逻辑崩溃等问题,且Agent在大规模代码库中缺乏全局感知,导致“屎山”指数级扩大、难以维护。作者结合Mario Zechner的《Thoughts on slowing the fuck down》的观点,强调必须把控系统整体结构、限定AI每天的代码产出、关注可审查的“脏活”以及保持人类的设计经验与审查能力。最终他提醒:只有人类才能为系统提供纪律、可维护性和“灵魂”,否则我们正一步步走向不可逆的技术死胡同。 158 字。

  • 简单梳理一下 llm 开发的变和不变?这个对吗。 - V2EX

    该帖子简要梳理了 LLM 开发的“变”与“不变”四个核心点:1)大模型的研发、训练、推理是当前软件工程的核心,一旦模型能力停滞,整个生态便会消失;“2)自然语言即 0‑1 比特流,是模型的唯一交互入口,上下文窗口相当于模型的“内存”,随之而来的上下文扩张与任务需求的同步增长必然产生矛盾,因而上下文压缩、检索、子代理编排等方案仍是前沿研究;3)基于智能和窗口管理的垂直领域应用需要深度结合业务知识,真正落地的垂直解决方案是关键;“4)即使是多模态模型,也只能通过工具链完成具体任务,工具的持续改造和创造仍是需求所在,而这类工具已经开始被大模型批量生产,形成廉价的“铁饭碗”。整体上,智能与窗口的演进推动了新产品形态,而底层技术的基本限制与需求的对抗则保持不变。 (约 176 字)

  • Release openclaw 2026.3.28 · openclaw/openclaw · GitHub

    Release2026.3.28 introduces a host of updates for the OpenClaw platform. 新增MiniMax图像生成、xAI插件自动启用及x_search功能,支持Qwen模型迁移至Model Studio并移除旧OAuth;插件可通过 async requireApproval 暂停并经 DLCI/Telegram/Discord 交互获取用户批准;Agent compaction、failover、sandbox、Tavily搜索等均优化或修复了权限、配额和错误处理;CLI新增配置JSON模式输出、预装插件自动加载、zsh补全迁移等;Doct​or调整自动迁移规则、隐藏敏感配置并改进错误提示;整体提升安全审计、内存插件协同、Telegram/BlueBubbles文件发送统一等。总计约150字。

  • 谷歌一篇论文砸崩内存巨头?不懂“显存墙”,怎么做 AI 时代的工程师! - Tony Bai

    这篇博客分析了最近谷歌 TurboQuant 论文带来的技术冲击,指出 KV Cache 在大模型推理中的“显存墙”效应,并说明算力已不再是主要瓶颈,访存带宽才是制约 AI 大模型效率的关键。文章呼吁后端工程师必须了解 GPU 架构、显存管理(如 PagedAttention、vLLM)等技术,才能在 AI 时代实现高效、低成本的模型部署,推荐作者的《AI 工程师的 GPU 入门课》微专栏,帮助读者快速建立硬件心智模型并掌握相应的调优、量化与分布式推理技巧。敬请阅读并加入技术社区,共同探索 AI 时代的工程实践。

  • Notion 联合创始人 Simon Last:我从去年夏天起就没写过一行代码了 | 宝玉的分享

    Notion 联合创始人 Simon 宣布去年停止手写代码,转而专注研发 AI Agent。公司每 6 个月就彻底重写 AI 框架,采用 Markdown 方言和 SQLite 语法构建 Agent‑friendly API,推出 Personal Agent 和可自主运行的 Custom Agent,实现任务自动执行与长时运行(13 天不间断)。目标已从帮助人直接完成工作,演进为让人管理 Agent 完成工作的平台,AGI 被视为可自我扩展的编码 Agent。团队规模未因工具提升而大幅缩小,关键在于持续重写、验证循环和安全控制。

  • ai-menshen:一个轻量级、本地优先的 Go 代理,用于 OpenAI 兼容的 API,旨在审计、缓存 - V2EX

    ai‑menshen 是基于 Go 的轻量级、本地优先代理,用于 OpenAI 兼容的模型 API。它在上游服务前层实现身份验证注入(BYOK)、模型覆盖、使用审计与缓存功能,让 API 密钥和请求日志始终在用户手中。通过本地先行架构,提供透明、低延迟且高效的缓存,帮助开发者在审计和控制的同时提升响应速度。项目已开源,代码可见于 GitHub。

大图预览

Feedback