• 當地時間26日,韓國檢方以涉嫌「內亂頭目」對尹錫悅提起拘留起訴。韓國檢方稱,根據對同案犯案件證據資料的審查結果,決定對尹錫悅提起公訴。
    26日早些時候,韓國檢方召開會議,討論被停職總統尹錫悅涉嫌「發動內亂、濫用職權」案的後續處理方案。
    #韓國檢方對尹錫悅提起起訴
    當地時間26日,韓國檢方以涉嫌「內亂頭目」對尹錫悅提起拘留起訴。韓國檢方稱,根據對同案犯案件證據資料的審查結果,決定對尹錫悅提起公訴。 26日早些時候,韓國檢方召開會議,討論被停職總統尹錫悅涉嫌「發動內亂、濫用職權」案的後續處理方案。 #韓國檢方對尹錫悅提起起訴
    Like
    1
    · 0 Comentários ·0 Compartilhamentos ·110 Visualizações ·0 Anterior
  • 鄧麗君:去世29年,男友保羅再婚生子,弟弟的堅持讓人感動
    鄧麗君:去世29年,男友保羅再婚生子,弟弟的堅持讓人感動
    Like
    1
    · 0 Comentários ·0 Compartilhamentos ·54 Visualizações ·0 Anterior
  • 亞洲民主燈塔、亞洲最會搞一人一票的中華民國(不好意思台灣国台獨龜公不敢成立)過去一年在幹嘛?簡單來說就是朝野對立、立法院打架、綠腦怪瘋狂做假新聞洗腦台灣老百姓、賴缺德抓柯屁、青鳥飛出來、小草走上街,最近好像要搞全難波萬立委大罷免運動,整天搞這些東西,我就問你還要發展了嗎? From Tsao Nima Beta
    亞洲民主燈塔、亞洲最會搞一人一票的中華民國(不好意思台灣国台獨龜公不敢成立)過去一年在幹嘛?簡單來說就是朝野對立、立法院打架、綠腦怪瘋狂做假新聞洗腦台灣老百姓、賴缺德抓柯屁、青鳥飛出來、小草走上街,最近好像要搞全難波萬立委大罷免運動,整天搞這些東西,我就問你還要發展了嗎? From Tsao Nima Beta
    0 Comentários ·0 Compartilhamentos ·185 Visualizações ·0 Anterior
  • 台灣女星林葉亭85歲父親於16日下午離家後失聯,因患有失智症令人擔心安危。 1月26日,據媒體報道,台北警方已尋獲林葉亭爸爸的遺體,但詳細事發經過及死因有待調查釐清。
    台灣女星林葉亭85歲父親於16日下午離家後失聯,因患有失智症令人擔心安危。 1月26日,據媒體報道,台北警方已尋獲林葉亭爸爸的遺體,但詳細事發經過及死因有待調查釐清。
    Like
    1
    · 0 Comentários ·0 Compartilhamentos ·73 Visualizações ·0 Anterior
  • 0 Comentários ·0 Compartilhamentos ·409 Visualizações ·0 Anterior
  • 臺北也有流浪漢
    臺北也有流浪漢
    0 Comentários ·0 Compartilhamentos ·60 Visualizações ·0 Anterior
  • #王星案重要犯罪嫌疑人颜十六到案
    #王星案重要犯罪嫌疑人颜十六到案
    王星案重要犯罪嫌疑人“颜十六”到案
    news.hot166.com
    近期,多名中国公民被骗至泰缅边境后遭非法拘禁、从事电信网络诈骗等案件引发社会关注。公安部对此高度重视,迅速部署相关地方公安机关全力开展人员解救和案件侦查调查,同时派出工作组赴境外开展工作。经公安部工作组和我驻泰使馆全力工作,在泰执法部门协助下,相关案件的重要犯罪嫌疑人颜某磊(网名“颜十六”)到案并于1月25日晚回国。目前,公安机关正全力开展案件侦办工作。公安部有关负责人表示,公安机关将认真贯彻落实全国打击治理电信网络诈骗工作视频会议精神,以更大的决心和力度,持续发起严打猛烈攻势,不断深化国际执法合作,加强与相关国家协调配合,全力缉捕违法犯罪嫌疑人,全力协调解救被困人员,最大限度压缩跨境犯罪生存发展空间,坚决保护我国公民人身财产安全。公安机关提醒广大群众务必提高警惕,加强安全防范,切勿轻信境外高薪招聘、务工信息,避免落入违法犯罪陷阱。
    0 Comentários ·0 Compartilhamentos ·128 Visualizações ·0 Anterior
  • #柯洁回应lg杯决赛被判负事件就像在噩梦中徘徊
    #柯洁回应lg杯决赛被判负事件就像在噩梦中徘徊
    柯洁回应LG杯决赛被判负事件:就像在噩梦中徘徊
    news.hot166.com
    日前,第29届LG杯世界围棋棋王战三番棋决赛第二盘,柯洁因为两次提子违规而被判负,随后的决胜盘,​比赛又被裁判以柯洁提子违规为由暂停,随后柯洁愤而退赛。1月26日,柯洁在直播中对此次风波做出了回应,表示自己这几天“就像在噩梦中徘徊”。“这几天我感觉就像在噩梦中徘徊,觉得我像在地狱中。从22号开始,我吃不下东西,我也没睡过完整的觉,我不敢相信这一切居然真的会发生。这对我来说真的是一个巨大的精神创伤,我可以说是陷入了无尽的黑暗中。每天晚上,我只要闭上眼,我的脑海里就会播放幻灯片。”柯洁 资料图“进入我脑子里的第一个画面,就是对手举报完我以后,我和俞斌教练在提出抗议的期间,对手居然在现场和一个人有说有笑地聊天。那一刻我听到了破碎的声音,不知道是我人破碎了,还是围棋破碎了。我真的是愚蠢,我但凡能分出一部分精力,从棋盘内分到棋盘外……苦练这么久,没想到还有棋盘外。”“22号那天我向裁判提出,我看过规则,规则并没有说棋子什么时候要放在棋盒盖里,只有短短的死子要放在棋盒盖里这么一句话。裁判说出了到现在我觉得有点恐怖的话,他说解释权归他所有,他说了算。”“教练在旁边打电话的时候,裁判和他们说,如果你继续拖延时间,我现在就判你负。他三次都是在对面思考的时候介入的,为什么要说我们在拖延时间呢?为什么要用这种歧视的话来侮辱我们呢?”柯洁表示,“我在现场感觉人身受到了威胁,几十双眼睛盯着我,我都不敢动,害怕又触犯了什么规则,太恐怖了。这一切让我感到很恐怖,很恐惧。”“我真的特别感谢支持我的人,你们给了我希望。如果说我在22号、23号陷入了黑暗的话,你们为我发声,这对我来说是万丈光芒。是你们给了我勇气,让我知道我没输,事实上他一局也没有赢。这两天回国后,我一直对自己说一句话:永不妥协。”​​​​​​
    0 Comentários ·0 Compartilhamentos ·38 Visualizações ·0 Anterior
  • #奥特曼离间班农煽火马斯克与特朗普的裂痕出现了
    #奥特曼离间班农煽火马斯克与特朗普的裂痕出现了
    奥特曼离间,班农煽火:马斯克与特朗普的“裂痕”出现了?
    news.hot166.com
    本文来自:华尔街见闻,作者:张雅琦,原文标题:《“川普2.0”的第一场宫斗:奥特曼离间,班农煽火,马斯克与特朗普的“裂痕”出现了?》,题图来自:视觉中国马斯克与Altman的长期恩怨似乎已延伸至白宫。特朗普就职第二天,OpenAI首席执行官Sam Altman就被邀请到白宫,并宣布了牵动全球科技巨头神经的“星际之门”计划。这下马斯克似乎“急了”。他在X平台上发布了一系列帖子,对白宫的声明进行了全方位的抨击——从称Altman是骗子,到质疑他对总统的忠诚度,再到声称该团队缺乏Stargate项目的资金。这引发白宫内部和特朗普盟友的强烈不满。包括特朗普的前首席策略师史蒂夫·班农(Steve Bannon),明言支持对马斯克的驱逐,试图在其内阁中切割势力。但目前看来,特朗普似乎依旧选择在一定程度上容忍马斯克的个性。当被问及是否对马斯克的行为感到困扰时,特朗普耸耸肩,说他继续与两人保持联系。一、AI合作引发的“宫斗”Altman此次白宫之行可谓精心策划。他向特朗普提供了一项总统可能最喜欢的东西:大规模美国AI投资计划。Altman宣布了一项名为“Stargate”的5000亿美元计划,旨在建设实现其AI愿景所需的基础设施。有分析称,Altman此举显然是一个精明的公关策略,他通过与特朗普的亲密互动来削弱马斯克的影响力。特朗普对于奥特曼的赞誉也颇为积极,特朗普称Altman是“根据我所读到的一切,毫无疑问是领先的专家”。作为回应,Altman将这个项目归功于总统,尽管其中一些部分早在本周之前就已经开始。然而,这种在特朗普面前的示好却为马斯克带来了不安。他在X平台上发布了一系列帖子,对白宫的声明进行了全方位的抨击——从质疑项目的可行性,称参与企业“实际上没有那么多资金”;到指出软银“确定的资金远低于100亿美元”。有分析认为,这种争斗不仅体现了对于特朗普政权期望的落差,也揭示了马斯克对政治营销的敏感性。二、特朗普的态度马斯克这一举动引发白宫内部和特朗普盟友的强烈不满。包括他的前首席策略师史蒂夫·班农(Steve Bannon),明言支持对马斯克的驱逐,试图在其内阁中切割势力。另据媒体报道,一位不愿透露姓名的白宫官员表示,马斯克“显然越界了”。另一位特朗普盟友更直言,马斯克“滥用了与总统的亲密关系”。面对这场“宫斗”,特朗普似乎并不困扰,并依旧选择在一定程度上容忍马斯克的个性。据《华尔街日报》报道,当被问及是否对马斯克的行为感到困扰时,特朗普耸耸肩说他继续与两人保持联系。“他(马斯克)讨厌交易中的一个人,我也讨厌某些人。”特朗普与马斯克的关系仍然相对较新。马斯克直到去年7月才公开支持特朗普,投入超过2.5亿美元帮助他当选,并利用自己的社交媒体影响力为特朗普造势。本文来自:华尔街见闻,作者:张雅琦
    0 Comentários ·0 Compartilhamentos ·149 Visualizações ·0 Anterior
  • #全球掀起deepseek复现狂潮硅谷巨头神话崩塌
    #全球掀起deepseek复现狂潮硅谷巨头神话崩塌
    全球掀起DeepSeek复现狂潮,硅谷巨头神话崩塌
    news.hot166.com
    本文来自微信公众号:新智元,作者:新智元,原文标题:《全球掀起DeepSeek复现狂潮,硅谷巨头神话崩塌,30刀见证啊哈时刻》,题图来自:视觉中国这些天,硅谷彻底处于中国公司带来的大地震余波中。全美都在恐慌:是否全球人工智能的中心已经转移到了中国?就在这当口,全球复现DeepSeek的一波狂潮也来了。诚如LeCun所言:“这一次,正是开源对闭源的胜利!”在没有顶级芯片的情况下,以极低成本芯片训练出突破性模型的DeepSeek,或将威胁到美国的AI霸权。大模型比拼的不再是动辄千万亿美元的算力战。OpenAI、Meta、谷歌这些大公司引以为傲的技术优势和高估值将会瓦解,英伟达的股价将开始动摇。种种这些观点和讨论,让人不禁怀疑:数百亿美元支出,对这个行业真的必要吗?甚至有人说,中国量化基金的一群天才,将导致纳斯达克崩盘。从此,大模型时代很可能会进入一个分水岭:超强性能的模型不再独属于算力巨头,而是属于每个人。一、30美金,就能看到“啊哈”时刻来自UC伯克利博士生潘家怡和另两位研究人员,在CountDown游戏中复现了DeepSeek R1-Zero。他们表示,结果相当出色!实验中,团队验证了通过强化学习RL,3B的基础语言模型也能够自我验证和搜索。更令人兴奋的是,成本不到30美金(约217元),就可以亲眼见证“啊哈”时刻。这个项目叫做TinyZero,采用了R1-Zero算法——给定一个基础语言模型、提示和真实奖励信号,运行强化学习。然后,团队将其应用在CountDown游戏中(这是一个玩家使用基础算术运算,将数字组合以达到目标数字的游戏)。模型从最初的简单输出开始,逐步进化出自我纠正和搜索的策略。在以下示例中,模型提出了解决方案,自我验证,并反复纠正,直到解决问题为止。在消融实验中,研究人员运行了Qwen-2.5-Base(0.5B、1.5B、3B、7B四种参数规模)。结果发现,0.5B模型仅仅是猜测一个解决方案然后停止。而从1.5B开始,模型学会了搜索、自我验证和修正其解决方案,从而能够获得更高的分数。他们认为,在这个过程中,基础模型是性能的关键。他们还验证了,额外的指令微调(SFT)并非必要的,这也印证了R1-Zero的设计决策。这是首个验证LLM推理能力的实现可以纯粹通过RL,无需监督微调的开源研究。基础模型和指令模型两者的区别:指令模型运行速度快,但最终表现与基础模型相当;指令输出的模型更具结构性和可读性。此外,他们还发现,具体的RL算法并不重要。在PPO、GRPO、PRIME这些算法中,长思维链(Long CoT)都能够涌现,且带来不错的性能表现。而且,模型在推理行为中非常依赖于具体的任务:对于Countdow任务,模型可以学习进行搜索和自我验证;对于数字乘法任务,模型反而学习使用分布规则分解问题,并逐步解决。苹果机器学习科学家Yizhe Zhang对此表示,太酷了,小到1.5B的模型,也能通过RL涌现出自我验证的能力。二、7B模型复刻,结果令人惊讶港科大助理教授何俊贤的团队(共同一作黄裕振、Weihao Zeng),只用了8K个样本,就在7B模型上复刻出了DeepSeek-R1-Zero和DeepSeek-R1的训练。结果令人惊喜——模型在复杂的数学推理上取得了十分强劲的结果。项目地址:https://github.com/hkust-nlp/simpleRL-reason他们以Qwen2.5-Math-7B(基础模型)为起点,直接对其进行强化学习。整个过程中,没有进行监督微调(SFT),也没有使用奖励模型。最终,模型在AIME基准上实现了33.3%的准确率,在AMC上为62.5%,在MATH上为77.2%。这一表现不仅超越了Qwen2.5-Math-7B-Instruct,还可以和使用超过50倍数据量和更复杂组件的PRIME和rStar-MATH相媲美!其中,Qwen2.5-7B-SimpleRL-Zero是在Qwen2.5-Math-7B基础模型上仅使用纯PPO方法训练的,仅采用了MATH数据集中的8K样本。Qwen2.5-7B-SimpleRL则首先通过Long CoT监督微调(SFT)作为冷启动,然后再进行强化学习。在这两种方法中,团队都只使用了相同的8K MATH样本,仅此而已。大概在第44步的时候,“啊哈时刻”出现了!在模型的响应中,出现了自我反思。并且,在这个过程中,模型还显现了更长的CoT推理能力和自我反思能力。在博客中,研究者详细剖析了实验设置,以及在这个强化学习训练过程中所观察到的现象,例如长链式思考(CoT)和自我反思机制的自发形成。与DeepSeek R1类似,研究者的强化学习方案极其简单,没有使用奖励模型或MCTS(蒙特卡洛树搜索)类技术。他们使用的是PPO算法,并采用基于规则的奖励函数,根据生成输出的格式和正确性分配奖励:如果输出以指定格式提供最终答案且正确,获得+1的奖励;如果输出提供最终答案但不正确,奖励设为-0.5;如果输出未能提供最终答案,奖励设为-1。该实现基于OpenRLHF。初步试验表明,这个奖励函数有助于策略模型快速收敛,产生符合期望格式的输出。三、第一部分:SimpleRL-Zero(从头开始的强化学习)接下来,研究者为我们分享了训练过程动态分析和一些有趣的涌现模式。训练过程动态分析如下所示,所有基准测试的准确率在训练过程中都在稳步提高,而输出长度则呈现先减少后逐渐增加的趋势。经过进一步调查,研究者发现,Qwen2.5-Math-7B基础模型在初始阶段倾向于生成大量代码,这可能源于模型原始训练数据的分布特征。输出长度的首次下降,是因为强化学习训练逐渐消除了这种代码生成模式,转而学会使用自然语言进行推理。随后,生成长度开始再次增加,此时出现了自我反思机制。训练奖励和输出长度基准测试准确率(pass@1)和输出长度自我反思机制的涌现在训练到第 40 步左右时,研究者观察到:模型开始形成自我反思模式,这正是DeepSeek-R1论文中所描述的“aha moment”(顿悟时刻)。四、第二部分:SimpleRL(基于模仿预热的强化学习)如前所述,研究者在进行强化学习之前,先进行了long CoT SFT预热,使用了8 000个从QwQ-32B-Preview中提取的MATH示例响应作为SFT数据集。这种冷启动的潜在优势在于:模型在开始强化学习时已具备long CoT思维模式和自我反思能力,从而可能在强化学习阶段实现更快更好的学习效果。与RL训练前的模型(Qwen2.5-Math-7B-Base + 8K QwQ知识蒸馏版本)相比,Qwen2.5-7B-SimpleRL的平均性能显著提升了6.9个百分点。此外,Qwen2.5-7B-SimpleRL不仅持续优于Eurus-2-7B-PRIME,还在5个基准测试中的3个上超越了Qwen2.5-7B-SimpleRL-Zero。训练过程分析训练奖励和输出长度基准测试准确率(pass@1)和输出长度Qwen2.5-SimpleRL的训练动态表现与Qwen2.5-SimpleRL-Zero相似。有趣的是,尽管研究者先进行了long CoT SFT,但在强化学习初期仍然观察到输出长度减少的现象。他们推测,这可能是因为从QwQ提取的推理模式不适合小型策略模型,或超出了其能力范围。因此,模型选择放弃这种模式,转而自主发展新的长链式推理方式。最后,研究者用达芬奇的一句话,对这项研究做了总结:简约,便是最终极的精致。五、完全开源复刻,HuggingFace下场了甚至,就连全球最大开源平台HuggingFace团队,今天官宣复刻DeepSeek R1所有pipeline。复刻完成后,所有的训练数据、训练脚本等将全部开源。这个项目叫做Open R1,当前还在进行中。发布到一天,星标冲破1.9k,斩获142个fork。项目地址:https://github.com/huggingface/open-r1研究团队以DeepSeek-R1技术报告为指导,将整个复刻过程划分为三个关键步骤。步骤 1:通过从DeepSeek-R1蒸馏高质量语料库,复现R1-Distill模型。步骤 2:复现DeepSeek用于创建R1-Zero的纯强化学习(RL)流程。这可能需要为数学、推理和代码任务策划新的大规模数据集。步骤 3:展示我们如何通过多阶段训练,从基础模型发展到经过RL调优的模型。六、从斯坦福到MIT,R1成为首选一个副业项目,让全世界科技大厂为之惶恐。DeepSeek这波成功,也成为业界的神话,网友最新截图显示,这款应用已经在APP Store“效率”应用榜单中挤进前三。在Hugging Face中,R1下载量直接登顶,另外3个模型也霸占着热榜。a16z合伙人Anjney Midha称,一夜之间,从斯坦福到MIT,DeepSeek R1已经成为美国顶尖高校研究人员“首选模型”。还有研究人员表示,DeepSeek基本上取代了我用ChatGPT的需求。中国AI,这一次真的震撼了世界。参考资料:https://x.com/junxian_he/status/1883183099787571519https://x.com/jiayi_pirate/status/1882839370505621655本文来自微信公众号:新智元,作者:新智元
    0 Comentários ·0 Compartilhamentos ·182 Visualizações ·0 Anterior