C114门户论坛百科APPEN| 举报 切换到宽版

亚星游戏官网

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

亚星游戏官网-yaxin222  三级军士长

注册:2010-4-285
发表于 2024-12-7 12:59:08 |显示全部楼层

文 | 王方玉

编辑 | 苏建勋

12月7日北京时间凌晨两点,OpenAI企业带来了连续12天发布会的第二场直播。

本次直播中,OpenAI带来了新的方案——强化微调(Reinforcement Fine-Tuning)。该方案和功能预计将于2025年正式推出。

强化微调是一种全新的模型定制方法,它将一个预训练好的通用模型,通过在特定领域的小规模数据集上进一步训练,使其适应特定任务的技术。简单来说就是在一个“学过很多东西”的大模型上,再让它针对某个具体任务“重点练习”,让它更适合做这件事。

OpenAI 高管先容称,强化微调可以将大型语言模型从“高中水平”提升至“博士级专家”的能力,适合高校、研究人员和企业打造独特的 AI 解决方案。例如OpenAI正在与汤森路透合作,打造专属于该企业的法律专业模型。

没有参与本场直播的OpenAI CEO Sam Altman在社交媒体表上:“效果一级棒,是我2024年最大的惊喜,期待看到人们构建什么!”

“强化微调让行业专家大模型的实现变得容易了。”一位AI大模型应用企业的创始人告诉36氪,这是一项和普通用户关联不大,但对专业领域工编辑很有价值的新方案。

直播现场,OpenAI展示了一个典型的案例——罕见遗传病研究。

OpenAI 与伯克利实验室和德国 Charité 医院的研究人员合作,使用强化微调训练GPT o1 Mini 模型。该模型学会了有效推理罕见疾病的成因,并在性能上超越了更大的GPT o1模型,展示了其在诊断和理解复杂病情方面的潜力。

值得一提的是,强化微调与此前的微调方式有着显著差异。与传统微调不同,强化微调并不是简单地让模型“记住答案”,而是通过训练模型在特定领域中学会推理,找到正确答案。

具体来说,强化微调有两个不同数据集合,一个是微调数据集,一个是测试数据集合,模型先基于微调数据集合去训练,然后用测试数据集合验证,反复自我推理训练验证,最终达到很高的水平。因而强化微调可以实现在数据量有限的情况下(有时仅需几十个样本)也能实现显著性能提升。

不过,强化微调方案目前仍处于研究预览阶段,OpenAI计划在2025年全面推出。

目前OpenAI正邀请研究机构、大学以及企业参与强化微调研究计划。OpenAI希翼与愿意共享数据集的组织合作,进一步优化模型性能。

来源:36kr

举报本楼

本帖有 3 个回帖,您需要登录后才能浏览 登录 | 注册
您需要登录后才可以回帖 登录 | 注册 |

手机版|C114 ( 沪ICP备12002291号-1 )|联系大家 |网站地图  

GMT+8, 2024-12-22 13:28 , Processed in 0.105499 second(s), 17 queries , Gzip On.

Copyright © 1999-2023 C114 All Rights Reserved

Discuz Licensed

回顶部
XML 地图 | Sitemap 地图