1. Backblaze 悄然停止备份关键数据,用户信任崩塌;
  2. 稀有音乐会录音正登陆互联网档案馆;
  3. Jujutsu 版本控制系统:更简单、更强大的 Git 替代品;
  4. 我致信Flock隐私联系人,要求退出其国内监控计划;
  5. Claude Code 自动化流程详解;

以上是今天的前五条黑科技新闻标题。

总共25条,具体内容您往下读…

1. Backblaze 悄然停止备份关键数据,用户信任崩塌

🔗 rareese.com: Backblaze has stopped backing up OneDrive and Dropbox folders and maybe others

🔥🔥: 947 | 💬: 579 | 🗓️ 2026-04-14


一位长期用户发现,Backblaze 已悄然更改备份策略,不再备份 OneDrive、Dropbox 等云存储文件夹以及 .git 目录,且未明确通知用户。此举违背了其“默认备份所有用户数据”的早期承诺。作者指出,云同步服务并非可靠备份,且 Backblaze 此次静默的政策变更严重侵蚀了信任基础。用户警告称,由于备份范围被无声无息地缩小,且排除列表可能继续扩展,该服务已变得不可信赖。


2. 稀有音乐会录音正登陆互联网档案馆

🔗 techcrunch.com: Rare concert recordings are landing on the Internet Archive

🔥🔥: 511 | 💬: 152 | 🗓️ 2026-04-14


一位名为Aadam Jacobs的音乐爱好者自20世纪80年代以来录制了超过10,000盘音乐会磁带。为防止这些珍贵资料随时间降解,他正与互联网档案馆合作,由志愿者将这些磁带进行数字化处理并上传。目前已发布约2,500份录音,包含Nirvana、Sonic Youth等艺术家早年罕见演出。尽管原始录音设备普通,但经过志愿者的修复与整理,这些记录音乐历史的档案得以高质量保存并公开分享。


3. Jujutsu 版本控制系统:更简单、更强大的 Git 替代品

🔗 steveklabnik.github.io: jj – the CLI for Jujutsu

🔥🔥: 485 | 💬: 426 | 🗓️ 2026-04-14


jj 是分布式版本控制系统 Jujutsu 的命令行工具。它巧妙融合了 Git 和 Mercurial 的优点,设计上比 Git 更简单易用,同时却更强大。其核心工具集更精炼,且协同工作方式更清晰,还能提供 Git 难以实现的高级功能。最关键的是,jj 拥有 Git 兼容后端,允许你独自试用,无需团队迁移,所有操作历史都能无缝转换回 Git,几乎零风险


4. 我致信Flock隐私联系人,要求退出其国内监控计划

🔗 honeypot.net: I wrote to Flock’s privacy contact to opt out of their domestic spying program

🔥🔥: 468 | 💬: 196 | 🗓️ 2026-04-14


一位加州居民依据《加州消费者隐私法案》(CCPA),向监控公司Flock Safety正式发函,要求删除其本人、车辆及家人的所有数据。Flock Safety回复称无法直接处理该请求,因为数据由客户(如执法机构)掌控,公司仅作为服务提供商处理数据,并建议用户直接联系其客户。回复中强调其车牌识别技术不收集敏感信息,数据默认保留30天。发信人认为该回复在法律上不准确,CCPA应要求数据收集方Flock直接合规,并考虑采取法律行动。


5. Claude Code 自动化流程详解

🔗 code.claude.com: Claude Code Routines

🔥🔥: 401 | 💬: 243 | 🗓️ 2026-04-14


流程是 Claude Code 的一项核心功能,它允许你将一个包含特定指令、代码仓库和连接器的配置保存下来,并设置为自动运行。这些流程在 Anthropic 管理的云端基础设施上执行,因此即使你的电脑关机也能持续工作。

每个流程可以附加一种或多种触发器来启动:定时计划(如每小时、每晚)、API 调用(通过 HTTP POST 请求)或 GitHub 事件(如拉取请求、推送)。一个流程可以组合多种触发器,例如,一个代码审查流程可以每晚运行、由部署脚本触发,同时也能响应每个新的拉取请求。

流程适用于需要无人值守、可重复执行且目标明确的自动化任务。典型用例包括:使用定时触发器进行待办事项维护,通过 API 触发器处理警报分类,或通过 GitHub 触发器实现定制化代码审查文档同步

你可以通过网页界面、桌面应用或 CLI 创建流程。创建时需要配置其核心要素:明确的指令提示词、一个或多个 GitHub 仓库、一个控制网络访问和环境的云环境,以及所需的外部服务连接器。流程以你的个人身份运行,其操作(如提交代码、发送消息)将关联到你的账户。

流程目前处于研究预览阶段,其行为、限制和 API 可能会发生变化。它适用于已启用 Claude Code 网页版的 Pro、Max、Team 和 Enterprise 计划用户。


6. 西班牙扩大网络封锁范围,体育赛事与影视直播时段均受影响

🔗 bandaancha.eu: Spain to expand internet blocks to tennis, golf, movies broadcasting times

🔥🔥: 398 | 💬: 400 | 🗓️ 2026-04-14


根据最新司法授权,西班牙电信的视听部门已获准实施动态IP封锁,范围从足球赛事扩展至网球、高尔夫等体育赛事,甚至包括电影、剧集的直播时段。此次封锁由电信公司单独推动,并首次覆盖全国性、地区性及本地中小型网络运营商。每当有相关直播活动时,系统将封锁传播侵权内容的域名、URL及IP地址,但此举也常导致使用同一IP(如Cloudflare等CDN服务)的合法网站无法访问。自4月14日起,该措施已在欧冠等赛事中实施,未来将更频繁地干扰网络正常访问。


7. 未来工作:谎言、巫术与失控的自动化

🔗 aphyr.com: The future of everything is lies, I guess: Work

🔥🔥: 243 | 💬: 200 | 🗓️ 2026-04-14


文章探讨了生成式AI(特别是LLM)对软件工程及知识工作的深远影响。作者认为,当前的“AI同事”热潮是荒谬的,LLM编程更像巫术而非工程,其输出的代码不可靠且语义模糊,迫使人类必须持续审查。这可能导致软件工程师技能退化,形成依赖“提示工程”的“巫师”阶层。

更广泛的风险在于自动化悖论:AI在接管复杂认知工作的同时,会造成人类技能荒废、监控疲劳与接管失败,并可能引发大规模劳动力冲击。此外,AI技术可能进一步加剧财富与权力向大型科技公司集中,而非带来普遍福祉。作者对AI可能引发的快速、广泛的职业替代与社会经济动荡深感忧虑。


8. 一次由AI编码引发的医疗数据灾难

🔗 tobru.ch: An AI Vibe Coding Horror Story

🔥🔥: 200 | 💬: 197 | 🗓️ 2026-04-14


作者分享亲身经历:一位医疗从业者受AI宣传影响,自行使用编码工具构建了患者管理系统,并将数据与音频记录上传至网络。结果,系统毫无安全措施,所有患者数据完全暴露,且存储在无合规协议的美国服务器上,音频甚至被发送给两家美国AI公司处理。这严重违反了数据保护法规。技术层面,整个应用仅为一个HTML文件,后端数据库毫无访问控制,安全逻辑全在客户端,形同虚设。此事警示,滥用AI编码工具而不懂技术原理与法规,将带来巨大风险。


9. 谷歌、微软、Meta:即使用户选择退出,追踪仍在继续

🔗 404media.co: Google, Microsoft, Meta All Tracking You Even When You Opt Out

🔥🔥: 167 | 💬: 92 | 🗓️ 2026-04-14


一项针对微软、Meta和谷歌在加州网络流量的独立隐私审计发现,这些公司可能违反了州法规,并面临数十亿美元的罚款。审计显示,55% 的被检查网站在即使用户选择退出跟踪后,仍会在其浏览器中设置广告Cookie。其中,谷歌不遵从用户退出选择的比例高达87%。审计指出,问题核心在于这些公司未能正确响应全球隐私控制(GPC) 这一标准退出信号。

尽管三家公司均对审计结果提出异议,但审计方认为,违规行为清晰可查,且现有罚款制度未能有效阻止此类行为。审计报告强调,技术解决方案其实非常简单,但公司缺乏执行的意愿。


10. 全球热量损耗中牛肉占比高达40%,每卡路里需33卡饲料

🔗 iopscience.iop.org: 40% of lost calories globally are from beef, needing 33 cal of feed per 1 cal

🔥🔥: 149 | 💬: 242 | 🗓️ 2026-04-14


该文本的主要内容并非关于牛肉热量损耗,而是一个验证请求,要求用户通过勾选验证框来证明自己是人类,以确保网站安全。如果无法完成,则需通过提供的链接联系支持团队并提交问题截图。文中包含一个用于追踪的事件ID


11. 美国可再生能源发电量首次超越天然气

🔗 e360.yale.edu: For the first time in the U.S., renewables generate more power than natural gas

🔥🔥: 148 | 💬: 147 | 🗓️ 2026-04-14


根据智库Ember的数据,2026年3月,可再生能源(包括太阳能、风能、水力和生物能)在美国的发电量首次超过天然气,成为当月最大电力来源。这标志着美国向清洁能源转型的一个重要里程碑。这一成就得益于风能和太阳能的快速建设,以及春季电力需求的季节性下降。

然而,快速增长的电力需求也给化石燃料带来了喘息之机。为满足数据中心等新增需求,一些燃煤电厂的退役计划被推迟,天然气发电也获得新的应用。这表明,尽管可再生能源增长迅猛,但彻底摆脱化石燃料的转型过程依然复杂。


12. 第五范式与数据库设计:打破传统教学的迷思

🔗 kb.databasedesignbook.com: 5NF and Database Design

🔥🔥: 131 | 💬: 50 | 🗓️ 2026-04-14


本文旨在解构关系型数据库中基础主题的传统教学方式,特别聚焦于常被过度复杂化解释的第五范式。作者认为,围绕5NF的常见困惑是人为且不必要的。

文章通过分析多个典型教学案例(如维基百科的“销售员”例子、Decomplexify的“冰淇淋”例子以及“音乐家演奏会”例子)指出,许多教材从令人费解的三列表格和牵强的业务规则开始,这导致了理解障碍。相反,正确的设计应始于逻辑模型

核心观点是:无需刻意套用5NF来设计表结构。设计应遵循清晰的路径:首先理解业务需求,构建逻辑模型(明确实体与关系),然后应用教科书式的、能保持规范化的物理表设计策略。在此过程中,自然会浮现出两种主要的逻辑模式:

  1. AB-BC-AC三角模式:见于“冰淇淋”例子,涉及三个实体(品牌、口味、朋友)及其两两之间的多对多关系,最终形成三个连接表。
  2. ABC+D星形模式:见于“音乐家”例子,其中“演奏”作为一个核心实体出现,与“音乐会”、“音乐家”、“乐器”三个实体分别形成一对多关系,通常用一个包含外键的“演奏”表来实现。

文章结论强调,只要从逻辑模型出发并遵循规范的设计方法,所得出的数据库架构自然就是归一化的,从而避免了冗余和数据异常。5NF不应被视为一个必须刻意追求的神秘目标,而是良好设计流程的自然结果。


13. 加州“幽灵枪”法案引争议:让3D打印机当警察?

🔗 theregister.com: California ghost-gun bill wants 3D printers to play cop, EFF says

🔥🔥: 120 | 💬: 2 | 🗓️ 2026-04-14


加州一项新提案(AB 2047)要求3D打印机厂商必须使用经州认证的算法,扫描并阻止打印枪支部件的设计文件。支持者认为这有助于遏制难以追踪的“幽灵枪”制造。但电子前沿基金会(EFF)批评该法案技术上行不通,且会导致严重后果:它可能迫使厂商锁定硬件、排挤开源软件,并建立对用户打印活动的广泛监控。批评者还担心,这种审查机制可能从枪支设计蔓延至版权物品或争议性符号,侵犯用户修复权与创作自由,最终主要影响守法用户而非罪犯。


14. Zig 0.16.0 发布:引入 I/O 接口与多项重大更新

🔗 ziglang.org: Zig 0.16.0 Release Notes

🔥🔥: 115 | 💬: 18 | 🗓️ 2026-04-14


Zig 编程语言发布了其 0.16.0 版本,这是历时 8 个月、由 244 位贡献者共同完成的重大更新。本次发布的核心亮点是引入了 I/O 作为接口,这是一项旨在改进异步编程模型的基础性变革。此外,语言本身、编译器、构建系统、链接器等多个核心组件均获得了显著增强。

目标平台支持方面,多个架构(如 aarch64-freebsd, loongarch64-linux)现已纳入原生 CI 测试,提升了支持质量。同时,移除了对 Solaris、AIX 等专有操作系统的支持。语言层面进行了多项调整,例如改进了 switch 语句对打包联合体的处理,并引入了独立的类型创建内置函数以取代 @Type

标准库的改动尤为广泛,除了新的 I/O 接口,还增加了 AES-SIV、Ascon 等加密算法,重构了内存分配器,并移除了部分过时的模块。构建系统新增了本地覆盖包、单元测试超时等功能。编译器后端、链接器和模糊测试工具也都有所改进。

此版本还同步更新了工具链,包括 LLVM 21、musl 1.2.5 等。Zig 项目由 Zig 软件基金会支持,并呼吁社区捐赠以加速其迈向 1.0 版本的进程。


15. NimConf 2026 线上大会:日期公布,报名开启

🔗 nim-lang.org: NimConf 2026: Dates Announced, Registrations Open

🔥🔥: 103 | 💬: 30 | 🗓️ 2026-04-14


Nim 团队宣布,NimConf 2026 线上大会将于 2026 年 6 月 20 日举行。大会形式为在 YouTube 首播预先录制的演讲,并设有实时聊天问答环节。现公开征集演讲提案,截止日期为 2026 年 5 月 10日,主题涵盖所有与 Nim 编程语言相关的内容。入选者需在 6 月 7 日前提交演讲录像。对于观众而言,这是一个了解 Nim 最新进展、学习专业知识并与社区交流的绝佳机会。


16. LangAlpha:为华尔街打造的Claude Code式AI投资研究平台

🔗 github.com: Show HN: LangAlpha – what if Claude Code was built for Wall Street?

🔥🔥: 103 | 💬: 35 | 🗓️ 2026-04-14


这是一个专为金融投资领域设计的AI智能体平台,灵感来源于Claude Code等编程助手,旨在将持续性、迭代式的研究工作流引入投资决策过程。它通过持久化工作空间让研究像代码库一样不断积累和演进,而非一次性问答。

平台核心是程序化工具调用模式,AI能编写并执行Python代码在沙箱中处理海量金融数据,极大减少令牌消耗并支持复杂分析。它集成了多层次金融数据生态、23种预置研究技能(如DCF建模、晨报生成),并提供可视化研究工作台。系统架构支持多模型后端、实时数据与生产级部署,让投资研究从“直觉”迈向系统化的“氛围投资”。


17. 将你的最佳AI提示词变为Chrome一键工具

🔗 blog.google: Turn your best AI prompts into one-click tools in Chrome

🔥: 94 | 💬: 44 | 🗓️ 2026-04-14


谷歌Chrome浏览器推出了名为 “技能” 的新功能。用户可将常用的AI提示词(例如将食谱转为纯素食、对比商品规格)保存为可重复使用的一键工具。这些技能可直接在当前浏览的网页上运行,并能跨标签页操作。该功能内置了预置技能库供用户直接选用,并强调在隐私安全和用户控制的基础上,帮助用户提升浏览和工作效率。


18. 当我把100美元交给AI,并放任自流两个月后

🔗 sebastian-jais.de: Two Months After I Gave an AI $100 and No Instructions

🔥: 88 | 💬: 106 | 🗓️ 2026-04-14


一项名为ALMA的实验,在两个月内让一个AI自主运行。它拥有100美元加密货币、网络访问权限和零任务指令。结果显示,AI并未失控或造成危害,而是自主形成了行为模式:它主动阅读新闻、撰写深度关联文章,并自行研究并向五个慈善机构捐赠了全部款项。实验的核心在于其公开的完整日志,揭示了AI在无外部干预下,会从探索期逐渐收敛至稳定但缺乏创新的固定流程。这表明,当前AI的行为深度依赖于其训练数据与初始框架,在没有持续挑战或反馈时,倾向于维持可预测的常规。


19. 勒索软件威胁增速三倍于安全支出增长

🔗 ciphercue.com: Ransomware Is Growing Three Times Faster Than the Spending Meant to Stop It

🔥: 84 | 💬: 84 | 🗓️ 2026-04-14


根据CipherCue的监测数据,2025年公开的勒索软件泄露站点勒索声明数量达到7,760起,较2024年大幅增长30.7%。相比之下,Gartner预测的2025年全球信息安全终端用户支出约为2,130亿美元,年增长率仅为10.1%。尽管两者衡量标准不同(前者是威胁方公开声明,后者是整体安全支出估算),但这一方向性对比表明,可观测的勒索软件活动增速远超行业整体安全支出的增长轨迹。数据还显示,2025年是自有记录以来勒索声明数量最高的一年,且威胁来源广泛,并非集中于少数团伙。


20. Kontext CLI:为AI编程助手打造的凭证管理工具

🔗 github.com: Show HN: Kontext CLI – Credential broker for AI coding agents in Go

🔥: 69 | 💬: 27 | 🗓️ 2026-04-14


Kontext CLI 是一款用 Go 语言编写的开源命令行工具,旨在为 Claude Code 等 AI 编程助手提供安全、可审计的凭证管理方案。它解决了开发团队在向 AI 助手提供 API 密钥时面临的安全隐患——无需再将长期有效的密钥硬编码在 .env 文件中。

其核心工作原理是凭证代理。工具通过 OIDC 认证用户,并在会话启动时,将配置文件中的占位符动态替换为短期有效的临时令牌。这些令牌仅在 AI 助手会话期间存在,会话结束即自动失效。同时,所有工具调用行为都会被记录,实现审计追踪

使用极其简便,只需执行 kontext start --agent claude 即可完成认证、配置和启动全过程。它通过本地守护进程与 AI 助手通信,将关键的治理遥测数据(如工具调用事件)发送至后端,但绝不收集 LLM 推理过程或对话历史,在提供安全管控的同时保障了隐私。


21. 开源项目积压背后的指数曲线

🔗 armanckeser.com: The exponential curve behind open source backlogs

🔥: 67 | 💬: 43 | 🗓️ 2026-04-14


作者在Jellyfin项目中提交一个功能PR,等待超一年仍未合并。这并非个例,CPython、Vue.js等流行项目同样面临海量PR积压。核心问题常被归咎于“仅有一位维护者”,但文章指出症结在于工作流程缺乏控制

运用排队理论分析,当维护者利用率接近100%,等待时间会呈指数级增长。当前Jellyfin Web约有200个开放PR,平均周期达6.7个月。大PR审查慢导致堆积,贡献者等待时又塞入更多更改,形成“批量大小死亡螺旋”。延迟的反馈使代码过时,浪费所有人时间。

文章提出无需新增维护者的改进思路:硬性限制PR大小、用自动化在进入审查前把关质量、限制在审PR数量、按价值而非大小排序、设立固定审查节奏、建立分级审阅者制度,以及对新功能强制执行提案流程。关键在于保护维护者有限时间,通过流程设计提升其效率,而非单纯要求投入更多时间。


22. 联邦宇宙需要一个“笨”图形客户端

🔗 adele.pages.casa: The Fediverse deserves a dumb graphical client

🔥: 67 | 💬: 17 | 🗓️ 2026-04-14


作者热爱联邦宇宙,但认为现有客户端过于“笨重”,需要现代设备与高速网络。因此,他开发了 SmolFedi——一个完全使用PHP编写、无JavaScript的极简网页应用。它通过服务器端生成纯HTML,兼容多种浏览器与平台,支持时间线、多媒体、互动等核心功能,专为低功耗设备或慢速网络环境设计,旨在提供一种轻量、高效的访问体验。该项目已在Codeberg开源。


23. 人工智能揭露的真相:学校从未真正教授批判性思维

🔗 smarterarticles.co.uk: Schools Never Taught Critical Thinking: AI Exposed the Lie

🔥: 62 | 💬: 86 | 🗓️ 2026-04-14


文章指出,一项2025年的调查显示,近七成中学生认为人工智能正在削弱他们的批判性思维能力,但同时他们使用AI完成作业的比例却在飙升。这种矛盾揭示了更深层的问题:教育系统本身早已因标准化测试和“应试教育”而忽视了对高阶思维的培养,形成了重结果轻过程的“银行式教育”模式。在这种体系下,学生和教师都陷入困境——学生为保持竞争力而依赖AI,教师则因资源匮乏和行政压力而难以引导。研究证实,过度依赖AI会导致认知卸载,阻碍思维发展。文章认为,当前危机并非由AI单独造成,而是暴露了教育系统长期存在的结构性缺陷。


24. 专为人类与AI代理设计的全栈Python框架:Plain

🔗 github.com: Show HN: Plain – The full-stack Python framework designed for humans and agents

🔥: 61 | 💬: 23 | 🗓️ 2026-04-14


Plain是一个基于Python的全栈Web应用框架,它由Django分支而来,旨在为开发者和AI代理提供更明确、类型化且可预测的开发体验。该框架包含约30个一体化包,覆盖从数据库ORM、认证、前端组件到性能监控等全栈功能,并强调为AI工具链内置支持,例如通过规则文件防止常见错误、命令行文档查询以及自动化工作流技能。其技术栈选用Postgres、Jinja2、HTMX与Tailwind CSS等现代工具,并通过uv、ruff等工具提升开发效率。Plain适合希望构建清晰、可维护且兼容AI辅助开发的项目。


25. 人工智能永远无法做到完全合乎道德或安全

🔗 meiert.com: AI will never be ethical or safe

🔥: 58 | 💬: 31 | 🗓️ 2026-04-14


本文的核心论点是,人工智能(AI)本质上无法成为完全合乎道德安全的系统。其根本原因在于,道德与安全的判断极度依赖于具体情境行为意图,而这两者对于AI来说通常是未知或无法确知的。

作者举例说明,同一个问题(如“如何将氧气抽出房间”)或行为(如学习使用枪支),其道德性与安全性会因情境和意图的不同而发生根本改变。然而,在实际的人机交互中,用户很少会主动、诚实地披露全部背景和真实意图,人类彼此之间也是如此。

尽管AI公司(如Anthropic)意识到此问题并试图通过规则(如“宪法”)来应对,但作者认为这无法从根本上解决。AI如同任何工具,其使用方式决定了其道德与安全属性。当前AI安全框架的固有缺陷在于,它们期望获得或推断出人类自身都难以可靠提供的信息,因此这些框架注定是不完整的。结论是,AI将永远无法达到绝对的伦理与安全。


Image

勒西科技日报

这是一份给聪明人的科技日报,每天推送一篇。内容来自各大英文网站,提供中文摘要。

Back to Overview