来自 Twitter · Hacker News · GitHub 的 AI 行业动态
Garry Tan 透露 OpenClaw 即将获得浏览器控制能力,通过 GStack Browser 实现更强大的自动化交互操作。
Y Combinator CEO Garry Tan 发布 gstack-lite,专为 OpenClaw 调用 Claude Code 优化,提升任务执行的思考深度和完成效率。
vLLM 与 TorchSpec 团队合作,采用最受欢迎的开源 EAGLE3 草稿模型为 Kimi 2.5 提供低延迟推理支持,进一步提升大模型推理效率。
Garry Tan 回应质疑 Agentic Coding 效率的声音,表示将用实际成果证明 Agent 编程的加速效果,并调侃不信的人可以继续以 1 倍速度写代码。
YC CEO Garry Tan 表示 YC 合伙人正大力押注开源,预计未来将涌现 1000 倍以上的超易用开源项目。他认为这是个人软件的黄金时代,无限可定制的开源将远超企业级软件。
Supabase 宣布其文档现可通过 SSH 协议访问,专为 AI Agent 设计,使 Agent 能更高效地查阅和使用 Supabase 文档。
Karpathy 转述 Peter Steinberger 观点:PR 应改叫 Prompt Request。当 AI Agent 已能实现大多数想法时,不需要再用免费版 ChatGPT 写出一堆 vibe code 然后提交 PR。
vLLM v0.19.0 发布,含 197 位贡献者的 448 次提交。亮点包括 Gemma 4 支持、零气泡异步调度+投机解码、Model Runner V2 成熟化、ViT 全 CUDA 图、通用 CPU KV 缓存卸载及 NVIDIA B300/GB300 支持。
Claude Code 负责人 Boris Cherny 宣布,4 月 4 日起 Claude Pro/Max 订阅不再覆盖 OpenClaw 等第三方工具用量,用户需购买额外用量包或使用 API Key 按量付费。现有用户将获得等于月费金额的一次性补偿额度。
分享两步去水印法:第一步让 Gemini 更换衣服颜色和背景(不提去水印),第二步再换回原始衣服和背景,水印自然消失。
Chamath 回顾其 2010 年代的 CaaS 实验:公司提交数据,自动规则返回投资决策,投了 50+ 家公司,获得 2x+ DPI。主要瓶颈在法律实体管理,一旦解决 CaaS 将成为主流。
Karpathy 建议将 epub 转 txt 的任务直接交给 AI Agent 处理,因为 epub 格式多样,Agent 能自动理解结构并生成高质量的 Markdown 输出。
Replit 宣称借助 AI,大规模创建 SEO 优化内容已经没有任何障碍,暗示其平台在 AI 辅助内容生成方面的能力提升。
Hugging Face 分享了使用 llama-server 加载 Gemma-4-26B 量化模型并通过 OpenClaw 非交互式配置的完整命令,展示本地大模型部署的便捷性。
马斯克表示有信心 Neuralink 未来能够恢复听力,正如其 Blindsight 脑机接口植入物已在探索恢复视力一样。
马斯克表示特斯拉的芯片设计评审过程充满乐趣,暗示其自研芯片项目正在积极推进中。
马斯克透露特斯拉芯片研发工厂将在一栋楼内整合逻辑、存储、封装和掩模制造全部环节,实现极速研发迭代周期。
Karpathy 点评 Farzapedia 项目,认为用显式可导航的知识库做 AI 个性化,比隐式记忆更透明、可控、可迁移,用户能清楚看到 AI 知道什么。
Karpathy 认为,AI 赋能的公民可以大幅提升政府的可见性和问责性。历史上是政府让社会变得可读,而 AI 让社会反过来能够深度审视政府运作。
Karpathy 提出 idea file 概念:在 LLM Agent 时代,分享想法比分享具体代码更有意义,因为对方的 Agent 可以根据想法定制并构建出适合自己需求的应用。
据 The Information 报道,DeepSeek 推迟 V4 发布,花数月与华为、寒武纪合作重写底层代码,确保模型能在昇腾 950PR 芯片上运行。该芯片单卡算力为 H20 的 2.87 倍,是中国唯一支持 FP4 低精度推理的 AI 芯片。
Qwen3.6-Plus 成为 OpenRouter 上排名第一的模型,也是首个单日处理超过 1 万亿 token 的模型,体现了开发者社区对该模型的高度认可。
Musk 透露 Tesla 芯片设计评审非常有趣,暗示 Tesla 自研芯片进展顺利。
Musk 表示心目中的美好时光就是与优秀工程师一起工作,创造新东西。
Karpathy 分享思考:看好被 AI 赋能的个人,个人+AI 的组合将释放前所未有的生产力。
Karpathy 的 LLM 知识库推文意外走红,他补充了更详细的工作流:用 LLM 将源文档增量整理为结构化 Markdown。
Musk 表示有信心 Neuralink 将能够恢复听力功能,脑机接口技术持续推进。
HuggingFace 分享 Gemma 4 26B 模型的本地运行方式:通过 llama-server + GGUF 量化格式(Q4_K_M)直接加载,openclaw 已完成 onboarding。
Qwen3.6-Plus 在 OpenRouter 排名第一,成为 OpenRouter 上首个达到该位置的模型。
Ollama 宣布订阅用量将于明天太平洋时间上午 11 点刷新,继续支持 Gemma 4 全系列模型。