开发者朋友们大家好:
这里是 「RTE 开发者日报」 ,每天和大家一 起看新闻、聊八卦。我们的社区编辑团队会整理分享 RTE (Real Time Engagement) 领域内「有话题的 新闻 」、「有态度的 观点 」、「有意思的 数据 」、「有思考的 文章 」、「有看点的 会议 」,但内容仅代表编辑的个人观点,欢迎大家留言、跟帖、讨论。
本期编辑:@CY,@JLT
01 有话题的新闻
1、马斯克 Neuralink 脑机接口实验新进展:患者能用意念下棋
3 月 21 日消息,马斯克旗下脑机接口公司 Neuralink 对其首位脑机芯片植入受试者的近况进行了直播,并表示这位四肢瘫痪的男子已经能够通过意念玩游戏,例如《文明》,还有国际象棋。
该男子自我介绍为诺兰・阿博(Noland Arbaugh),在直播中,他描述了自己是如何学习使用脑机的,「我会尝试移动我的右手,向左、向右、向前、向后,然后,从那里开始想象光标在移动」。他还补充说,他觉得自己很幸运能成为 Neuralink 首位测试者:我甚至无法形容能够做到这一点有多酷。
虽然直播内容较少,但 Neuralink 工程师表示未来几天将公布更多信息。(@IT 之家)
2、美司法部力促 TikTok 出售,而非直接封禁
3 月 19 日消息,美国司法部正在举行一系列闭门简报会,试图劝说参议员们迫使 TikTok 出售给一家美国公司,而不是直接禁止该应用在美国运营。此前,美国众议院曾以压倒性多数票赞成禁止或强制出售 TikTok,但该法案在参议院能否通过仍存在变数。
在三个封禁 TikTok 的理由中,关于个人数据收集的争议似乎最受关注,但可信度却最低。正如彭博社此前报道的那样,实际上 TikTok 收集的个人数据非常有限。TikTok 母公司字节跳动也一直持同样的观点,该公司否认了有关 TikTok 收集大量敏感信息的指控,他们表示诸如用户名、年龄、电话号码、电子邮件、IP 地址和大致位置等数据都是企业为了提供在线服务而例行收集的。
字节跳动称,「与一些竞争对手不同,TikTok 不要求用户透露真实姓名,不会询问用户的就业或恋爱状态,也不会要求美国用户透露其精确的地理位置信息。」
彭博社的报道称,司法部正在为尚未被封禁令说服的参议员举行私人简报会。他们推荐的方案允许该应用在美国继续运营,但前提是其所有权要转移给一家美国公司。(@IT 之家)
3、CycleGAN 作者领衔,条件扩散模型取得新成就,单步图生图模型开源
单步图像变换:CycleGAN 作者提出的方法能进行高效的单步图像到图像的转换,适用于成对和非成对设置,显著提高了推理速度。
无需成对数据训练:利用预训练的文本条件单步扩散模型通过对抗性学习适配到新领域和任务,无需成对数据进行训练。
新生成器架构:介绍了一个新的生成器架构,通过改进的信息传递和细节保留技术,如 LoRA 适配器和零卷积,以提高图像转换的质量和效率。(@思源数据科学)
4、GPT-5 有望今夏推出,知情人透露:表现有「质的飞跃」
3 月 20 日消息,据媒体报道,OpenAI 有望在今年夏季推出 GPT-5,这一消息已经引起了业界的广泛关注。目前,部分企业客户已经提前收到了关于这一最新模型及其 ChatGPT 工具相关改进的演示。
一位企业 CEO 观看了 GPT-5 演示后表示:「它的表现太棒了,带来了一种质的飞跃」,OpenAI 运用他公司独有的案例和数据展示了新模型的功能。
然而,值得注意的是,OpenAI 目前尚未最终确定 GPT-5 的具体发布日期。这表明公司对于新模型的发布计划可能还存在一定的不确定性,可能会根据实际情况进行相应的调整。据另一位消息人士透露,OpenAI 目前仍在对 GPT-5 进行训练,并计划在完成后进行内部安全测试和其他进一步的评估。这个过程可能会耗费一定的时间,并有可能导致发布日期的推迟。(@快科技)
02 有态度的观点
1、黄仁勋对话 Transformer 论文七大作者:这个世界需要比 Transformer 更好的东西
在今年的 GTC 大会上,英伟达 CEO 黄仁勋以一种充满仪式感的方式邀请了 Transformer 的七位作者(Niki Parmar 因故临时未能出席)参与圆桌论坛的讨论,这是七位作者首次在公开场合集体亮相。他们在对话中也表达了很多令人印象深刻的观点:这个世界需要比 Transformer 更好的东西,我想我们在座的所有人都希望它能被某种东西所取代,将我们带到一个新的性能高原。(@腾讯科技)
2、快手 CEO 程一笑:自研大模型有信心半年内达 GPT4.0 水平
据媒体报道,在快手业绩电话会上,快手创始人兼 CEO 程一笑透露,2023 年公司启动 AI 战略后,一步步扎实推进自研大模型的研发训练。
据介绍,继快意 130 亿和 660 亿模型后,快手在四季度重点研发训练了 1750 亿规模语言大模型。程一笑表示,“我们有信心在未来半年内,使大模型的综合性能达到 GPT4.0 的水平。”(@快科技)
写在最后:
我们欢迎更多的小伙伴参与「RTE 开发者日报」内容的共创,感兴趣的朋友请通过开发者社区或公众号留言联系,记得报暗号「共创」。
对于任何反馈(包括但不限于内容上、形式上)我们不胜感激、并有小惊喜回馈,例如你希望从日报中看到哪些内容;自己推荐的信源、话题、活动等;或者列举几个你喜欢看、平时常看的内容渠道;内容排版或呈现形式上有哪些可以改进的地方等。
素材来源官方媒体/网络新闻
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。