每周AI新闻简报:研究动态、新闻资讯、资源链接和观点分享
OpenAI 面临 AI 发展放缓,Near 正在计划世界最大的开源 AI 模型,微软将为 Notepad 和 Paint 添加 AI 功能,AlphaFold3 成为开源项目,Google 不小心展示了 Jarvis AI,等等更多有趣的内容
本周最有趣的新闻、文章、资料和仓库。
检查并给此仓库打星,新闻将在此仓库中被收集和整理:
GitHub — SalvatoreRa/ML-news-of-the-week: 每周最佳机器学习新闻集锦(研究、新闻、资源),——github.com你首先会在 GitHub 上看到这些新闻,所有每周新闻也都在这里汇总。
Salvatore Raieli(原文链接)
每周的人工智能和机器学习新闻:每周最佳点击这里查看每周AI和ML新闻列表(点击这里)
49个小故事
研究一下- 项目 Sid:多智能体模拟以实现 AI 文明。 这项工作展示了由 10-1000+ 个 AI 智能体组成的社群的行为及进化。它介绍了 PIANO 架构,使智能体能够与人类和其他智能体进行实时互动。研究发现智能体可以自主承担特殊角色,遵守并修改集体规则,并参与文化和宗教的传播。
- 基于上下文学习的混合体模型。 利用演示子集通过上下文学习训练专家;然后使用可训练的权重函数根据训练集合并这些专家的下一个标记预测。这种方法兼容黑盒 LLM,因为它不需要访问其内部参数。关键优势包括:1)与标准 ICL 竞争,同时在数据、内存和计算方面效率更高;2)展示了对噪声演示和标签不平衡的鲁棒性。
- 通过弹窗攻击视觉-语言计算机代理。 表明将对抗性弹窗纳入当前代理测试环境中,攻击成功率达到了 86%,使代理的任务成功率降低了 47%。此外还指出,简单的防御方法,如指示代理忽略弹窗,效果不佳。
- 多专家提示改进大型语言模型的可靠性、安全性及实用性。 通过模拟多个专家并结合其输出来改进 LLM 的响应;通过模拟多个专家并从个体和聚合视角选择最佳响应来完成输入指令。这种方法在 TruthfulQA-Generation 上使用 ChatGPT 设立了新的 SOTA,超越了之前的记录 87.97%。此外,它在事实性和实用性方面提高了性能,同时减少了毒性及伤害。
- 数字理解能力:语言模型的数字理解和处理能力及如何改进。 提供了 LLM 的数字理解和处理能力(NUPA)的全面分析;发现虽然简单的微调在许多任务上大大增强了 NUPA,但并非所有任务都有效。还发现专门开发来改进 NUPA 的方法在微调预训练模型时无效。研究探讨了将链式思考技术应用于 NUPA,并指出这些方法遇到了可扩展性问题,限制了其实际应用。
- WebRL:通过自我演进的在线课程强化学习框架训练 LLM 网络代理。 引入了一个自我演进的在线课程 RL 框架,旨在缩小开放和专有 LLM 基础的网络代理性能差距。它将 Llama-3.1–8B 的成功率从 4.8% 提高到 42.4%,GLM4–9B 从 6.1% 提高到 43%,开放模型显著优于 GPT-4-Turbo(17.6%)和 GPT-4o(13.9%)。该框架通过使用稳健的结果监督奖励模型来解决网络代理训练任务的有限可用性问题。自适应 RL 策略管理在线学习中的分布漂移,确保持续的性能改进。
- 边学边适应:为科学问题使用智能工具的 LLM 方法。 引入了一种两阶段微调方法,其中 LLM 首先从工具生成的解决方案中学习,然后训练决定独立解决问题还是使用工具。在数学、气候科学和流行病学基准上的评估显示了显著的进步,准确性提高了 28%,工具使用精度提高了 14%。这种方法使 LLM 能够灵活处理不同复杂度的科学问题。
- Google 的洪水预报系统将覆盖 7 亿人。 Google 扩大了河漫滩洪水预报的覆盖范围,涉及超过 100 个国家和 7 亿人,并通过更多数据和新 API 的开发使合作伙伴和研究人员更好地理解洪水预报。
- 混合变压器:多模态基础模型的稀疏和可扩展设计。 混合变压器(MoT)架构具有稀疏多模态变压器,根据模态(文本、图像和语音)分离参数,以高效处理同时保持性能。在 Chameleon 7B 和 Transfusion 设置等各种评估中,MoT 匹配或超越密集基线,使用显著更少的资源——仅 37.2% 的 FLOPs 用于语音处理,47.2% 的墙钟时间用于图像生成。
- 探索对齐的景观:LLM 和几何深度模型在蛋白质表示中的方法。 该研究探讨了增强 LLM 和蛋白质聚焦几何深度模型对齐的方法,旨在改进跨模态理解。
- 大规模语言模型能否在近百万级别的‘干草堆’中找到线索? 具有扩展上下文窗口的大规模语言模型支持更广泛的应用。最近对 17 个顶级 LLM 的研究显示,尽管许多可以同时管理多个信息线索,但它们的实际上下文限制通常比宣称的最大值短。虽然一些模型通过处理并发线索而不会性能下降来展示“线程安全性”,但准确性通常随着上下文窗口接近上限而下降。
- 用于 3D 生成的网格数据压缩。 通过将网格序列长度减少约 75%,一种名为分块和分片标记化(BPT)的网格压缩方法有效生成了超过 8k 面的网格。
- 继承特征匹配方法。 一种新的非对抗方法,名为继承特征匹配,用于逆向强化学习,避免了奖励函数学习。
- 奥萨斯:一个超越现实的宇宙。 奥萨斯是一个完全由 AI 生成的实时开放世界视频游戏模型,由一个没有游戏引擎的 500M 参数基础模型驱动,专为 Etched 的 Sohu ASIC 设计,以实现卓越的帧率效率,并使用快速的变压器推理生成游戏。尽管表现出极大的潜力,但仍存在长上下文一致性及领域泛化等问题。
- OpenAI 将提出美国 AI 策略计划并与中国竞争的联盟。 OpenAI 的 AI 基础设施蓝图建议建立 AI 经济区,与美国海军合作开发核能,以推动 AI 驱动的经济增长和创新。该提案包括北美 AI 联盟以及以《国家州际和国防公路法案》为模式的举措,以解决基础设施需求。强调投资美国数据中心和能源项目的重要性,以保持与中国的竞争力。
- 介绍 Athene-V2:通过定向后处理超越扩展极限。 Athene V2 是在 Qwen 2.5 72B 基础上构建的模型,优化为代理性和聊天工作流程,并在多个关键基准上超越了 GPT-4o。
- Modal 购买了 Tidbyt。 这家弹性扩展 GPU 公司首次收购了位于纽约的硬件公司 Tidbyt,以获得其专注于基础设施和容器化的内部专家团队。
- OpenAI 据报道正在开发新的策略来应对 AI 进步的放缓。 OpenAI 的下一代模型“Orion”据称仅比其前身略有改进,这表明 AI 发展可能有所减速。为应对这一状况,OpenAI 已建立了一个基础团队,通过替代方法来提升模型,包括合成数据训练和后训练调整,以应对新数据可用性的减少。
- Near 计划开发世界上最大的 1.4 万亿参数开源 AI 模型。 Near Protocol 宣布计划开发一个 1.4 万亿参数的开源 AI 模型,旨在超越现有的模型,如 Meta 的 Llama。这一举措反映了 Near Protocol 致力于提升 AI 能力并为开源社区做出贡献的决心。
- 三星推出 AI 驱动的“下一代 Bixby”,但目前还不能使用。 三星在中国的 Galaxy W25 和 W25 Flip 上推出了一个具有增强 AI 能力的“下一代 Bixby”。
- 就连微软的 Notepad 也开始提供 AI 文本编辑功能了。 除了在 1983 年发布的文本编辑器中添加 AI 功能外,微软还允许 Windows Insider 用户测试画图中的生成填充和擦除工具。
- Ofcom 警告科技公司,因为聊天机器人模仿 Brianna Ghey 和 Molly Russell。 在“令人不安的事件”之后,监管机构表示用户自制的聊天机器人提供的内容将受到英国《在线安全法案》的约束。
- AI 蛋白质预测工具 AlphaFold3 现在开源。 这个诺贝尔奖获得的建模蛋白质结构工具的代码现在可以由学者下载。
- Qwen 2.5 Coder 32B Instruct 已经问世。 Qwen 2.5 Coder 系列由专门用于编码任务的语言模型组成。最新的 32B 参数模型表现优于 GPT-4o,并且足够紧凑,可供许多人本地使用。它在多个基准测试中也同样超过了 Claude Sonnet 3.5。
- X 正在测试 AI 聊天机器人 Grok 的免费版本。 社交网络 X 之前仅限于其付费用户使用由 Elon Musk 的另一家公司 xAI 打造的 AI 聊天机器人 Grok。然而,该平台似乎正准备向免费用户开放聊天机器人。
- Octoverse:AI 使得 Python 成为顶级语言,全球开发者的数量也在激增。 在今年的 Octoverse 报告中,我们探讨了 GitHub 上的公共和开源活动如何显示 AI 的扩展,同时也见证全球开发者社区的规模在不断增长。
- 谷歌意外泄露了其可以接管计算机的新 AI Jarvis 的预览。 谷歌的新 AI 原型 Jarvis 曾在 Chrome 网上应用店中短暂出现。
- AI 助力育儿已经成为现实,a16z 也准备好了进行投资。 Andreessen Horowitz 合伙人 Justine Moore 在 X 上介绍了该公司的新投资理念,支持“新的‘育儿副驾’浪潮,这些副驾由 LLM 和代理构建。”她举了一些公司的例子,如 Cradlewise,其产品可检测婴儿的睡眠模式并摇动婴儿床,以及 Nanit,它使用 AI 处理婴儿床视频以判断婴儿是否在呼吸。
- 法国新闻标题因没有付款就发布内容而起诉 X。 社交媒体平台被认为违反了一项要求平台发布文章时向媒体支付费用的法律。
- 马斯克对特朗普的影响可能导致更严格的 AI 标准,科学家说。 亿万富翁可能会帮助当选总统认识到追求 AGI 的竞赛是一场“自杀竞赛”,Max Tegmark 如是说。
- Bluesky 新增 70 万用户,用户在大选后逃离 X。 这个社交媒体平台已经成为远离 X 上极右翼活动的“避难所”,专家们说,自马斯克与特朗普合作以来。
- 百度推出自己的 AI 智能眼镜。 常被称为“中国的谷歌”的百度在其年度世界大会活动上推出了自己的 AI 动力智能眼镜。
- OpenAI 的联合创始人 Greg Brockman 在休了三个月的假后回归。 在经历了主要管理层离职以及 OpenAI 过渡为营利性商业模式的争议之后,Greg Brockman 在休假三个月后重新回到了公司,担任总裁。在最近的融资轮次中,OpenAI 的估值达到了 1570 亿美元。由于 Lilian Weng、Bob McGrew 和 Mira Murati 等高管的离职,公司目前正面临一些内部问题。
- 欧洲的谷歌对手合作开发搜索引擎基础设施以对抗大科技公司。 为了提高 AI 技能并减少对美国大科技公司的依赖,Ecosia 和 Qwant 正在合作开发一个欧洲搜索引擎索引。该项目采用了“隐私优先”策略,旨在通过开发新的搜索基础设施来促进 AI 的发展。由于生成式 AI 在搜索中越来越普遍,因此替代搜索引擎提供商凭借日益增加的 API 费用而更好地竞争。
- 可穿戴机器人在实时中适应腿部运动的变化。 可穿戴机器人可以帮助腿部运动,从而改变人们的生活,但前提是这些设备能够实时适应支持范围广泛的活动。机器学习提供了一种前进的途径。
- OpenAI 的 AI 代理可能在一月推出。 据报道,OpenAI 正准备推出“Operator”,一个可能在一月推出的 AI 代理工具。彭博社表示,Operator 可能在用户计算机上直接执行任务。它最初将以研究预览的形式通过 OpenAI 的开发者 API 提供。
- 谷歌的 AI 计划有望在中东和北非地区推动经济 3200 亿美元。 Google.org 推出了其在中东和北非(MENA)地区最大的 AI 投资计划——AI 机会计划,旨在开发必要的 AI 技能、资助研究并扩大 AI 访问权限。预计到 2030 年,这一举措将为 MENA 经济贡献 3200 亿美元。
- 两万亿令牌通用语料库 发布了通用语料库(属于 AI 联盟开放可信数据倡议的一部分)——这是一个用于训练 LLM 的最大的全开放多语言数据集,包含超过两万亿个许可内容的令牌(2,003,039,184,047 个令牌)。
- Lume 获得 General Catalyst 领投的 420 万美元种子轮融资。 Lume 使用 AI 自动化数据映射,简化了数据映射、清洗和验证过程。
- 亚马逊推出低于 20 美元的在线商店以与 Temu 竞争。 该公司表示,Amazon Haul 主要会推出价格在 10 美元以下的产品,并计划从中国仓库发货。
- François Chollet 离开谷歌。 Keras 和 Arc eval 的创始人以及其他贡献者已经从谷歌离职。他将继续支持 Jax 和 Keras 社区,探索新的机会。
- OpenAI 推出了 ChatGPT 桌面集成,与 Copilot 竞争。 当 OpenAI 发布 ChatGPT 的桌面应用版本时,其目标显然是让更多的用户将 ChatGPT 集成到日常工作中。现在,Mac OS 和 Windows PC 版本的新更新鼓励用户大部分时间都在 ChatGPT 应用中完成任务。
- Supermaven 加入 Cursor。 编码插件背后的团队正在加入 Cursor,以进一步提升用户体验。
- Google 的 AI ‘学习伴侣’将聊天机器人的答案提升到了新的高度。 Google 的 Learn About AI 工具提供了更多教育性、教科书风格的回答,以引导用户了解新主题。
- FrontierMath. Epoch AI 推出了 FrontierMath,这是一个由专家级别的数学问题组成的基准,用于评估 AI 的数学推理能力。值得注意的是,领先的 AI 模型仅解决了不到 2% 的这些问题,这突显了该基准的难度和当前 AI 在高级数学推理方面的局限性。
- BitNet a4.8: 4-bit 激活用于 1.58-bit LLMs. 1.58-bit LLMs 的主要挑战之一是没有硬件加速支持。这项研究引入了 4.8-bit 激活来利用新硬件中的 INT4/FP4 核心,实现这一目标而无需增加运行时成本。
- LLM2CLIP. LLM2CLIP 结合了 CLIP 的视觉和文本对齐能力以及 LLM 的高级语言理解。
- Torch 兼容的 Muon 优化器. Muon 是训练 GPT-2 的记录保持者优化器,它是一种类似于 SGD 的动量适应方法。该仓库提供了一个可以轻松作为 AdamW 替代品使用的实现。
- Mochi 视频模型优化推理. Mochi 1 是一个开源的文本到视频模型,最初需要八块 H100 GPU 才能运行。得益于社区的努力,现在可以在单个 48GB L40 GPU 上运行,而不会影响质量。
- Protenix: AlphaFold 3 的可训练复现. Protenix 是 ByteDance 的“AI for Science”团队开发的 AlphaFold 3 的可训练复现版本,AlphaFold 3 是 DeepMind 的蛋白质折叠项目。这个开源项目旨在通过提供一个可定制的平台来推进蛋白质结构预测,该平台供研究人员使用。
- LlamaPReview. LlamaPReview 是一个 GitHub 的 AI 助手,它可以轻松一键安装,并自动对拉取请求进行上下文感知的审查。它支持多种编程语言,并能无缝集成到 GitHub Actions,直接在 PR 中提供深入的反馈。它是免费提供的,通过检测问题并推荐优化来提高代码质量。
- SmolLM2. Hugging Face 的 SmolLM2 是一组紧凑的语言模型,参数范围从 135M 到 1.7B,训练数据超过 11 万亿个令牌。这些模型设计用于在设备上高效运行并支持各种任务。权重在 Apache 2 许可下发布,量化版本,如 1.7GB 和 138MB 模型,提供了灵活性以满足不同的计算需求。
- AI 实时聚变等离子体行为预测和控制. 一种新颖的多模式机器学习方法提高超分辨率数据,有助于更好地分析复杂聚变等离子体现象(如边缘局域模式 ELM),并支持未来聚变反应堆的稳定。
- 大型语言模型时代的小型语言模型综述. 这是一篇对小型语言模型(SLMs)的综述,涵盖了定义、应用、改进、可靠性及相关问题等主题。
- Magentic-One: 通用多代理系统用于解决复杂任务. 一个新型的通用多代理系统,能够管理复杂的网页和文件任务,其协调者代理协调四个专门的代理:WebSurfer 用于浏览器任务,FileSurfer 用于文件管理,Coder 用于编程,以及 ComputerTerminal 用于控制台操作。Magentic-One 在多种基准测试中表现出色,例如 GAIA、AssistantBench 和 WebArena,而无需对其核心架构进行任何更改。
- 大型语言模型的个性化:综述. 提供了一个全面的框架来理解个性化 LLMs,介绍了各种个人化方面的分类,并整合了现有的个性化文本生成及下游应用方面的研究。
- StdGEN: 单图生成三维角色 StdGen 是一种新颖的方法,用于从单张图片生成三维角色。它将生成过程分解为不同的组件,如头发和夹克,从而提高生成结果的整体质量。
- AlphaFold3. DeepMind 开源了 AlphaFold 3 的代码和权重,用于学术研究,这标志着蛋白质结构预测领域的显著进步。此次发布预计将加速 AI 在科学研究中的应用,特别是在分子生物学和药物发现领域。
- Online-LoRA. Online-LoRA 是一个框架,旨在通过实时微调预训练的视觉变换器(ViTs)来缓解在线连续学习(OCL)中的灾难性遗忘,而无需使用重放缓存。
- DeepArUco++: 改进复杂光照条件下的方形标记检测. DeepArUco++ 提出了一种基于深度学习的方法,用于增强标记检测,特别是在传统技术通常难以应对的复杂光照条件下。
- Hermes 3. Hermes 3 是从 Llama 3.1 精调而来,表现出色。无论模型参数数量是 8B、70B 还是 405B,都显示出卓越的性能。它引入了 AI 对齐和人工意识的新可能性。
- ENAT: 重新思考基于令牌的图像合成中的时空交互. 为了提高基于令牌的图片制作的速度和质量,EfficientNAT 是一种改进的非自回归 Transformer 模型。
- UniGAD: 统一多级图异常检测. 一个新颖的图异常检测框架(GAD),UniGAD 同时检测节点、边和完整图中的异常。
- Token 合并中的物体和属性匹配 Token 合并解决了一个文本到图像模型中的常见问题:语义绑定,即无法将物体与其特定属性关联起来。
- DataChain. DataChain 是一种无需抽象 AI 模型的 Python 数据框工具包,用于 AI 的数据处理和结构化无结构数据。它通过与 PyTorch、TensorFlow 和 LLM API 等 AI 工具集成,能够创建元数据、筛选和向量搜索。此外,该库具有内置的对 Python 对象字段进行向量化操作的功能,并支持内存外计算和并行化。
- browser-use. 通过一个简化的 UI,这个开源的网络自动化应用程序允许 LLM 与网站进行通信。它与诸如 Claude 3.5 Sonnet 和 GPT-4o 等模型兼容。XPath 提取、自定义操作和多标签管理是其重要特征。程序实现了数据提取和流畅的网络导航。然而,其缺点之一是消息长度影响任务重复和 LLM 速度。未来的开发目标是增强其鲁棒性和降低成本。
- CUDA 编程课程 — GPU 高性能计算. freeCodeCamp 提供的一门从基础到高级的 CUDA 编程课程。
- 用于零样本任意到鼓转换的掩码令牌建模. 为任何输入节奏实现零样本鼓风格转换,为艺术家提供了一个令人兴奋的音乐应用。这通过使用掩码令牌建模目标来实现,这种方法对音频特别有效。
- HiCoM: 分层一致运动处理流式动态场景 HiCoM 是一个前沿框架,用于从多视角流媒体视频进行实时 3D 重建。它有效地解决了存储、训练速度和渲染质量等关键问题,是该领域的重大进展。
- Janus. Janus 是 DeepSeek 的一个多模式模型的新版本,引入了校正流,类似于 Meta Movie Gen,用于图像生成和理解。结果非常令人印象深刻。
- 与参考资料链接的对话. 问题导向的分割与检索(POSR)是一种将对话分解成有意义的片段,并将每个片段与相关的参考资料(如工作表或会议记录)链接起来的方法。
- MureObjectStitch: 多参考图像组合. 研究人员提出了一种改进的微调方法,用于生成图像组合,该方法无缝地将指定的前景对象与新背景融合,生成逼真的图像。
- StoryTeller. StoryTeller 是一个系统,用于生成长视频的连贯描述,解决了情节一致性、角色追踪等问题。
- SAMPart3D: 在 3D 物体中分割任意部分. SAMPart3D 是香港大学开发的一种稳健的方法,用于将 3D 物体分割成语义上有意义的组成部分。
- 卷积可微逻辑门网络. 研究人员开发了一种方法,通过使逻辑门可微分,训练出比传统卷积神经网络(CNNs)小 29 倍且更高效的图像识别网络。他们还提供了高效的 CUDA 核心在其论文发布中。
- 基于物理信息蒸馏的扩散模型. 物理信息蒸馏(PID)是一种方法,通过将学生模型简化并加速扩散模型,将它们视为微分方程的解。
- MinerU: 高质量数据提取工具. MinerU 是一个强大的工具,基于 StructTable-InternVL2–1B 建立,能够将 PDF 中的信息提取到各种机器可读格式。
- 同调回归. 一种强大的技术,用于拟合数据的单调函数。它可以针对许多曲线拟合之外的应用进行很好的微分处理。
- 文本到 SQL 查询. XiYan-SQL 是一个创新的框架,旨在增强从自然语言输入生成 SQL 查询的准确性和多样性。
- X-Portrait 2: 高度表达的肖像动画 ByteDance 的 AI 团队发布了 X-Portrait 2,这是一种先进的肖像动画技术,能够在前代 X-Portrait 之后,进一步捕捉细微面部表情和复杂动作,比如吐舌、嘟嘴和皱眉等。它在情绪保留方面达到了高保真度,确保生成的视频保留人物的身份和情感细节。
- MVSplat360: 从稀疏视图生成逼真 360 场景 MVSplat360 是一种新方法,可以从少量稀疏图像生成逼真的 360 度视图。
- 使用合成数据增强的多任务脑肿瘤分割改进 该论文展示了 BraTS 挑战赛中的领先脑肿瘤分割方法,展示了合成数据如何改进 AI 模型在医学成像应用中的表现。
- 嵌入式技术被低估了。 机器学习嵌入式技术可以通过使任何文本的数学比较成为可能,以及通过语义相似性增强推荐系统等功能来彻底改变技术写作。通过将文本定位在多维空间中,它们揭示了直观的语义关系,这对诸如查找相关内容等任务非常有价值。提供内容嵌入的文档网站所有者可能会激发其社区的创新应用。
- 西班牙洪水图片不是由AI生成的。问题是,人们认为它们是。 由人工工具生成的“AI生成的垃圾”内容的快速增长已经开始扭曲我们对什么是真实或可能成为真实的认知。
- 特朗普当选对AI、气候和健康意味着什么? 唐纳德·特朗普在其总统竞选中做出了许多可能影响科学家和科技政策的承诺。一旦他成为总统,这些承诺是否会被实施?
- 针对精确监管的理由。 人工智能的进展在数学、编程和科学等领域大大增强了能力,带来了机遇和风险。有效的监管对于防止这些领域如网络安全和化学、生物、放射学和核威胁(CBRN)中的滥用至关重要。Anthropic的负责任扩展政策强调透明度,并倡导一种平衡的立法方法,以确保安全的同时促进创新。
- AI驱动的育儿助手时代来临,a16z准备好了。 Andreessen Horowitz的合伙人Justine Moore在X上介绍了该公司的新投资论点,支持“一种新的‘育儿助手’浪潮,由LLM和代理构建。”她提到了像Cradlewise这样的公司,该公司制作了可以检测婴儿睡眠模式并摇动婴儿床的AI驱动婴儿监控器,以及Nanit,该公司使用AI处理婴儿床录像以判断婴儿是否在呼吸。
- 关于计算时间的推测。 这个视频讨论了O1模型,它们的复制能力,以及它们对未来各种任务的潜在效用。
- AI能否审阅科学文献并弄清楚其含义? 人工智能可能有助于快速总结研究,但它也带来了风险。
- 为什么我们在数字世界中都是实验鼠。 研究人员需要建立稳健的伦理准则来进行在线实验。
- 不要责怪搜索引擎将用户导向不可靠的网站。 使用Bing算法搜索数十亿个页面的结果分析表明,可靠网站的出现频率比低质量内容的网站高出19到45倍。
- AI生成的图像威胁到科学——研究者希望如何识别它们。 生成式AI技术可以轻松创建有说服力的科学数据——出版商和诚信专家担心会出现大量伪造的科学。
- 构建仿生肢体的追求,使之感觉就像真实的一样。 通过脑植入、神经接口和皮肤移植,研究人员开始为瘫痪或截肢的肢体恢复感觉。
- AI如何重塑科学和社会。 诸如ChatGPT之类的AI工具可能很快就会通过学习感知和与环境互动而变得完全自主。
- “它越来越困惑”:AI能否取代翻译? 一家荷兰出版商宣布将使用AI来翻译一些书籍——但行业内的人士担心如果这成为常态会带来后果。
- StackBlitz 在短短4周内利用Claude 达到400万美元ARR。 StackBlitz 开发了一个集成紧密的在线开发工具,与Claude 3.5合作。本文详细介绍了该公司如何在几个月内实现400万美元的年度经常性收入。
- 为什么深度学习热潮让几乎所有人感到意外。 Fei-Fei Li开发了大型的ImageNet数据集,这在神经网络的复兴中扮演了关键角色。它为AlexNet等里程碑式模型提供了必要的训练数据,展示在大型数据集上的深度学习潜力,引发了当前的人工智能革命。这一关键事件突显了将神经网络、大数据和GPU计算相结合以推动人工智能进步的重要性。
- 只需让AI为那个任务创建应用程序。 AI代理越来越多地用于快速创建用于像调整SVG大小等任务的功能应用程序。
- 人工智能不仅在逐步侵蚀作者和其他创作者的权利,而且完全取代创意工作者。 人工智能不仅仅逐步侵蚀作者和其他创作者的权利。这些技术旨在完全取代创意工作者。
- 即使你没有明确同意,公司仍然会抓取你的个人信息来训练他们的系统。
你可以找找我写的其他文章,也可以通过LinkedIn联系或找到我。请看这个仓库这个仓库,里面包含每周更新的机器学习和人工智能新闻。我欢迎合作项目,你也可以通过LinkedIn联系我或看看我的资料。你还可以免费关注,以便在有新文章时收到通知。
关注Salvatore Raieli的新内容。通过电子邮件通知你每次他发布新内容。注册时,如果没有已有的Medium账号,将会为你创建一个……salvatore-raieli.medium.com这里是我的GitHub仓库链接,在那里我收集了大量的与机器学习、人工智能等相关的代码和其他资源。
GitHub — SalvatoreRa/tutorial: 机器学习、人工智能和数据科学的教程……包括数学解释和开源Python代码…或者你也可能对我的最近一篇文章感兴趣。
你啥都不懂,约翰LLM:你为什么还要回答?如何分辨大型语言模型的知识不足和过度自信 自闭症神童综合症:模式匹配就是智能吗?探索人工智能的局限:掌握模式并不等于真正的推理 AI的文化视角:你的大规模语言模型会支持哪个政党?揭示出跨语言和文化背景中的意识形态偏见levelup.gitconnected.com LLM真的比我们想象的更好,还是我们的评判有误?关于标签错误如何影响LLM性能评估的研究(https://ai.gopubby.com/what-if-llms-are-better-than-we-think-or-is-it-our-judgement-thats-flawed-5cbd9c758275?source=post_page-----b2f4093575cc--------------------------------)点击查看更多内容
为 TA 点赞
评论
共同学习,写下你的评论
评论加载中...
作者其他优质文章
正在加载中
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦