C114门户论坛百科APPEN| 举报 切换到宽版

亚星游戏官网

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

亚星游戏官网-yaxin222  少尉

注册:2015-11-142
发表于 2024-11-1 23:36:32 |显示全部楼层
衡宇 发自 深夜朝阳
量子位 | 公众号 QbitAI
OpenAI研究副总裁(安全)翁荔(Lilian Weng),现身国内!

还首次在国内大型活动场合公开发表AI主题演讲。

亚星游戏官网-yaxin222



先简单先容一下,翁荔是OpenAI华人科学家、ChatGPT的贡献者之一。

北大毕业后,翁荔在2018年加入OpenAI,后来在GPT-4项目中主要参与预训练、强化学习&对齐、模型安全等方面的工作。

最著名的Agent公式也由她提出,即:Agent=大模型+记忆+主动规划+工具使用。

在今晚的2024Bilibili超级科学晚活动上,翁荔站在舞台上,以《AI安全与“培养”之道》为主题进行了演讲分享。

亚星游戏官网-yaxin222



演讲并不十分深奥,主要以科普向为主,但深入浅出,先容了AI安全相关种种问题。

她表示:

AI的安全不仅仅是研究者的责任,它需要每一个人的参与
(以下是翁荔演讲全文,在不改变其原意的基础上略有删减。)

翁荔演讲全文

今天先与大家探讨一个既深刻又有趣的话题,「AI 安全」,以及「大家如何像培养下一代一样,培育出聪明又安全的人工智能」

ChatGPT横空出世以来,AI技术如同搭乘了高速列车,迅速渗透并影响着大家。

AI每天都在变化,需要大家用心引导、教育,确保是更好的服务于人类,同时确保安全。

一个既安全又智能的AI,无异于将为大家的生活带来诸多裨益。

试想,一个洞察你生活习惯的智能家居系统,能根据你的需求自动调节室内温度、光线;或是一个时刻关注你健康状况的AI助手,能为你提领提供量身定制的健康AI。

这不仅能显著提升大家的生活质量,还能开辟新的就业领域,提升工作效率。

然而,这一切建立在AI安全的基础之上

正如自动驾驶技术一样,它能极大地提升生活便利性,但是一旦出错,后果可能不堪设想。

亚星游戏官网-yaxin222



随着AI应用日益智化与自主化,如何确保AI的行为符合人类价值观,真正做到以人为本,成为了AI 安全与对齐研究等核心议题。

人类在成长过程中会不断学习进步,但也会遇到成长的烦恼。

同样的,AI可能因为偏见而变得狭隘,也可能因为对抗性攻击而被恶意质疑,AI安全和对齐研究才能使AI成长过程更加顺利。

让大家以健康领域为例。

很多疾病研究的数据往往以男性的群体为主,这可能导致AI在处理女性的健康问题时风险评估不准确。

此外,数据本身也有可能存在偏见。

比如有研究表明,女性心脏病症状更容易被归结成焦虑等心理问题,而造成诊断遗漏。

因此,大家需要通过对AI安全和对齐研究来减少偏见。

AI 学习的基础是数据,数据是它的食物。

要想让AI变得聪明可靠,大家必须确保它营养均衡,也就是提供它多样、全面、正确的数据,帮助它能够正确地理解这个复杂的世界,并减少偏差。

亚星游戏官网-yaxin222



在使用人类标志的数据时,大家可以依赖于群体智慧,也就是同一个数据点被多人标注。

有意思的是, 1907年的一篇自然科学杂志中的文章,编辑追踪了一场年度展览会上的一个有趣的有奖竞猜。

展览会上,人们选出一头肥牛,让大家来猜测牛的重量,最接近真实数据的人将获得大额的奖金。

编辑发现,「最中间值」往往是最接近真实数据。

这个数估计值也被称为the voice of the people。

在这篇近120年前的科学文章中,编辑总结道:“我认为这个结果比人们预期的更能证明民主判断可信度。”

这也是最早提到群体智慧如何发生作用的科学文件。

而至于如何把高质量标注的数据给AI,则基于人类反馈的强化学习(RLHF)起到了关键作用。

在了解RLHF之前,大家快速了解一下什么是强化学习(RL)。

强化学习是一种机器学习方法,它主要通过奖惩机制来让模型学会完成任务,而不是依靠直接告诉模型如何去做这件任务。

想象一下,就好像你训练小狗,如果小狗做对了一个动作,比如坐下,你就给他一块骨头饼干;做错了就不给奖励。

这样,小狗就会因为想吃到更多的饼干而学会如何正确地坐下。

同理,AI也在这种奖惩机制中学习,通过不断的尝试并得到反馈,找到最佳的服务策略。

亚星游戏官网-yaxin222



一个早期的研究表明,强化学习能利用少量人类反馈,快速有效地教会智能体做复杂的动作,学会如何后空翻。

同样的方法也可以用于训练大语言模型(LLM)。

当大家看到针对同一问题的不同AI回答时,大家可以告诉模型哪一个回答更好、更正确、更符合人类价值观,这样大家就像家长教育孩子一样,调节AI的学习过程。

此外,大家还可以使用模型本身作为AI输出质量的评分者。

比如在Antropic发表的《Constitutional AI》中,模型就通过对自己行为的我评价进行改进;或者在对齐强化学习中,大家可以制定非常详细的行为规则来告诉AI,何时拒绝用户的请求,如何表达同理心等等。

然后大家在强化学习的奖励机制中,非常精准地给予相应的评分奖励。

这个过程中,一个更加强大的AI有能力更精准地判断它是否遵从了人类的价值观和行为准则。

强化学习技术就像一把钥匙,帮助大家打开AI高质量学习和发展的大门。

在培养AI更懂大家的过程中,普通人也能发挥重要的作用。

在文档写作上,大家可以采用两个小技巧。

首先,设定详细的背景和角色思想,像导演为演员准备剧本一样让AI在丰富的情境中,捕捉大家的意图。

其次,精心挑选关键词,构建逻辑清新的文档结构,使文档既美观又实用。

在视频音乐制作领域,大家可以通过使用专业术语来引导AI,比如黄金分割构图或和弦进行,将创意转换为现实。

同时,别忘了感情的投入,因为这是赋予作品灵魂关键词。

简而言之,通过细致的引导和情感的融入,大家可以帮助AI创作出既丰富又富有感染力的作品。

在《西游记》中,孙悟空有紧箍咒约束行为,大家应该给AI模型也戴上了紧箍咒,也就是教会 AI 安全基本准和道德标准,让其遵守行为规范,以人类利益为先,成为大家贴心的伙伴,而不是冰冷的机器。

亚星游戏官网-yaxin222



让AI学习基本原则和道德准则,可以使模型在面对复杂问题时运用推理得出正确的结论。

比如在OpenAI最近发表的Open-o1-preview模型中,大家通过思维链(CoT)推理加强了模型的可靠性,使得模型可以更好地抵抗越狱攻击。

扩展性研究(scalable oversight)在AI对齐研究中也非常重要。

随着AI模型扩大,需要结合自动化工具和人类监督有效的行为,确保它朝着正确的方向发展。

在一组公开研究中,大家用监督学习训练语言模型对网络文本摘要进行批评,比如提供“这个摘要非常准确”,或者“这个摘要遗落要点”。

相比对照组,大家发现有AI帮助的标注员比没有帮助的能多找出摘要中约50%的问题,而且多数参考了模型提供的内容。

总之,给AI设定标准并进行有效监督,可以提升它对人们的帮助。

AI的安全不仅仅是研究者的责任,它需要每一个人的参与。

以B站为例,这个充满活力的社区聚集了众多AI爱好者、创编辑,大家在这里分享便捷、讨论问题,甚至监督AI的表现,共同影响着 AI 的成长。

大家每个人都应该成为AI的大家长。

AI 技术是一把双刃剑,它带来的便利和挑战并行,大家的参与至关重要。

让大家携手培养出一个既聪明又负责的AI伙伴。

感谢大家的聆听,希翼今天的分享激发大家对AI安全的热情兴趣,也感谢B站直播这个平台。

让大家共同为AI的未来贡献力量,谢谢。

OpenAI备受争议的安全之路

然而,OpenAI在安全这个方向的前进,却一直备受争议。

上周,一则“OpenAI解散AGI筹备团队”的消息传遍全球。

源头是AGI Readiness团队负责人Miles Brundage宣布离职。

他表示,已在OpenAI完成所有工作,在外部工作将产生更大的影响。

未来他计划在OpenAI之外继续从事该领域研究工作,并希翼减少偏见。

亚星游戏官网-yaxin222



这不是OpenAI安全方面离开的唯一一个重要人物。

今年上半年,OpenAI联合创始人、首席科学家Ilya Sutskever离职,他带领的“超级对齐团队”随即解散。

该团队成立于2023年7月,OpenAI给了它一个使命:

用20%的算力,在未来4年内解决控制超级智能AI的核心技术挑战。

Ilya是这么说明自己离开OpenAI的原因的:

制造比人类更聪明的机器本身就是一项危险的事业。
OpenAI代表全人类肩负着巨大的责任。
但在过去几年里,安全学问和流程已经让位于闪亮的产品。
毅然离开的还有“超级对齐”团队联合负责人、安全主管Jan Leike——他最终选择跳槽到OpenAI最强竞对、Claude背后团队Anthropic,继续超级对齐工作。

离职后,Leike对外爆料,最近几年OpenAI已经不惜内部学问,把“吸引眼球的产品”放在安全准则之前。

现在,翁荔无疑是是最前沿AI实验室的安全总负责人了。

OpenAI的安全之路,又将走向何方?


来源:网易

举报本楼

您需要登录后才可以回帖 登录 | 注册 |

手机版|C114 ( 沪ICP备12002291号-1 )|联系大家 |网站地图  

GMT+8, 2024-12-23 10:30 , Processed in 0.187858 second(s), 16 queries , Gzip On.

Copyright © 1999-2023 C114 All Rights Reserved

Discuz Licensed

回顶部
XML 地图 | Sitemap 地图