由OpenAI前首席科学家Ilya Sutskever联合创立的AI初创企业Safe Superintelligence(SSI)已筹集10亿美金现金,以帮助开发远远超过人类能力的安全的AI系统。 SSI目前拥有10名员工,计划利用这笔资金来获得计算能力,并雇佣顶尖人才。SSI将专注于在加州帕洛阿尔托(Palo Alto)和以色列特拉维夫(Tel Aviv)建立一个高度可信的小型研究人员和工程师团队。 SSI拒绝透露其估值,但知情人士预计,其估值约为50亿美金。在此之前,人们对资助这些AI初创企业的兴趣有所减弱,因为这些企业可能在很长一段时间内无利可图。但SSI这笔交易表明,一些投资者仍愿意对专注于基础AI研究的杰出人才进行巨额押注。 参与SSI本轮融资的投资者包括顶级风险投资企业Andreessen Horowitz、红杉资本、DST Global和SV Angel。此外,由Github前CEO Nat Friedman和SSI首席实行官Daniel Gross经营的投资企业NFDG也参加了投资。 当前,AI安全,即防止AI造成伤害,是一个热门话题。因为人们担心失去控制的AI可能会损害人类的利益,甚至导致人类灭绝。 近日,加州立法者通过了一项备受争议的法案,旨在对AI设立新的限制,确保AI技术既具有创新性,也具备安全性和可靠性。但该法案却引发了行业分裂,遭到了OpenAI和GOOGLE等企业的反对,但得到了Anthropic和埃隆·马斯克的xAI的支撑。 Sutskever今年37岁,是AI领域最具影响力的技术专家之一。受OpenAI CEO萨姆·奥特曼(Sam Altman)被罢免一事的影响,Sutskever在OpenAI董事会的作用被削弱。后来,他被董事会除名,并于5月离开了企业。6月,他与Gross和OpenAI前研究员Daniel Levy共同创立了SSI。 Sutskever称,他的新项目很有意义,因为他“发现了一座山,与我正在研究的山有点不同。”SSI目前非常注重招聘符合其学问的员工。Gross称,他们花了几个小时来审查候选人是否具有“良好的品格”,并正在寻找具有非凡能力的人,而不是过分强调该领域的资历和经验。 SSI还表示,计划与云提供商和芯片企业合作,为其计算能力需求提供资金,但尚未决定与哪些企业合作。通常,AI初创企业会选择与MicroSoft和英伟达等企业就合作,以满足其基础设施需求。
|