展会信息港展会大全

对话OpenAI联合创始人:我们为什么会去成立一家盈利性公司
来源:互联网   发布日期:2019-05-05 17:41:39   浏览:17052次  

导读:大数据文摘出品 来源:Vox 编译:熊琰、狗小白 世界上复杂的人工智能程序大多是由盈利组织开发,如Facebook,谷歌和谷歌姊妹公司DeepMind。 但在2015年,Elon Musk创立OpenAI打破了这个先例,这是一个非营利组织,其使命是进行尖端的人工智能研究,并将人工...

大数据文摘出品

来源:Vox

编译:熊琰、狗小白

世界上复杂的人工智能程序大多是由盈利组织开发,如Facebook,谷歌和谷歌姊妹公司DeepMind。

但在2015年,Elon Musk创立OpenAI打破了这个先例,这是一个非营利组织,其使命是进行尖端的人工智能研究,并将人工智能的好处带给所有人。

这些年,这个年轻的组织也确实取得了一些令人印象深刻的成就。例如它开发了一款名为GPT-2的语言生成系统,新闻文章写作方面可以和人类比肩。另外,其开发OpenAI Five在Dota2公开赛首次

击败

了世界冠军。

前段时间,他们宣布了重大的重组:他们将开始运营一家名为OpenAI LP的新公司(LP代表“有限合伙制”)。这意味着其非盈利组织的性质开始变更。

他们希望筹集数十亿美元以用于人工智能前沿领域的研究。但是一旦获得资金,就会在一定程度上“损害”他们最初坚守的使命,因为,如果有了投资者,组织机构就有义务最大化这些投资者的利益,这与确保人工智能的利益广泛普及是不相容的。

关于此问题,Vox网站的专职作家Kelsey Piper对OpenAI的两位联合创始人Greg Brockman和Ilya Sutskever进行了采访。

以下是采访原文

Kelsey Piper:我阅读了Open AI LP的公告,你已经表明你的目的是筹集数十亿美元,以便在人工智能方面取得进展。是什么原因让您做出这个决定的呢?Open AI LP所使用的经营结构是您所指定的吗?

Ilya Sutskever:人工智能在AGI方面取得进展需要大量资金。从计算能力(服务器工作站之类的)到吸引和留住最优秀的人才都需要资金。在计算方面,具体而言,我们已经看到,获得最佳结果所需的计算量每年都在快速增长。作为一个纯粹的非营利组织,我们在筹款方面的能力已经达到了极限。

因此,我们需要一个允许我们筹集更多资金的组织结构,同时兼顾OpenAI最初的使命。

Greg Brockman:我们认为对于AGI来说,这是一个很好的组织结构,但是我们认为它不仅仅适用于AGI。还有其他可能的变革性技术即将出现,例如CRISPR。

重要的是这些技术得到了发展,所以我们希望看到这个组织结构也能被其他人所采用。

我们在2015年创立了OpenAI。我们花了大约两年的时间才真正尝试设计正确的结构 ,一年的时间来弄清楚我们认为的道路究竟是什么,然后又花了一年的时间来弄清楚你应该如何做到这一点,同时还能仍然坚守最初的使命任务。

Kelsey Piper:随着时间的推移,您对如何实现您的使命的理解已经逐渐发生了变化。显然,很多人对OpenAI所做的事情的理解都是由一些早期的信息形成的,但是这种方式并不能OpenAI本身对使命的理解。

很多人都认为你是要在AGI的开源过程中取得进展。

Greg Brockman:OpenAI的目的是确保当你拥有先进的技术时,未来会是美好的。我们的转变来源于我们认识到,当这些东西变得非常强大时,每个人都能接触到所有的东西,实际上并不能保证有一个好的结果。

你可以看看deepfakes。世界上有比deepfakes造假更厉害的吗?

因此,我们的关注点已经转移到考虑收益。技术发展的方式,通过正确的好创意,您可以产生巨大的价值利益。并且,它也具有集中财富的效果。如果AGI建成,一般情况下,它将比我们目前所见的财富集中度高出一百倍,一千倍,一万倍。

Kelsey Piper:从某些角度来看,你已经有了一些阻力。当你开始减少出版论文等成果时,你可能会得到更多

如果您的使命任务是开源,公众很容易判断您是否仍然受到您的使命的激励。我可以检查你是否开源了所有研究内容。如果你的使命任务是分配利益,我没有办法评估你是否仍然致力于你的使命。

Greg Brockman:这也是我们没有立刻转变模式的原因。在某些方面,非营利组织对于拥有一个非常明确的工作方式的纯粹任务非常有用。但是你知道可悲的事实是,在营利性方面,在非营利组织中做得还不够。

所以现在的问题是,你如何才能做到两者兼顾。

我们当前面临最大的问题是“代理人”模式的管理。另外,AGI不应该只是硅谷的事情。这是可以改变世界的技术。那么如何获得正确管理模式?这才是我们想要关注的重点!

Kelsey Piper:我觉得挺惊讶的是,读了一些对OpenAI有限合伙制的评论文章,大部分都不相信你还打算开发AGI。大部分评论表示,“那就是个美丽的神话。”这也确实是评论里的一个重要观点。

而且评论中缺乏这样的观点:“好吧,我相信你现在有个重要的机会,值得考虑一下,你还打算开发AGI,我愿意相信你。”

Greg Brockman:这个观点我还能再加深一层:人们不仅仅是不相信我们可以开发出AGI,他们甚至不相信我们对开发AGI抱有信念。

Kelsey Piper:许多初创公司在他们的网站上都挂着些“改变世界”的口号,但实际上只是说说而已。你们说,“我们将开发AGI”…

IIya Sutskever:我们将朝着这个方向尽我们所能去努力,同时也得保证我们的方式不会玩死自己。精确预测到底得花多久实现是非常困难的,但我认为过不了太久。

Greg Brockman:我觉得看看技术变革史挺有意思的。你看过C. Clarke写的《未来简介》(Profiles of the Future)吗?

Kelsey Piper:应该没看过。

Greg Brockman:这本书写得很超棒。Clark在书里试图从历史的轨迹里预测未来世界的样子。回溯过飞行、宇宙宇航、原子弹的发明、白炽灯的发明,看着这些历史,作者问道:“这里面是什么趋势呢?”

当人们看到这些变革出现的时候作何感想呢?白炽灯的发明引人注目,因为爱迪生在发明它的一年前就宣称了他将这么做。他说,“我们要发明电灯,一定超棒!”

于是英国议会成立了一个杰出的专家小组去查验爱迪生的发明。他们回来后表示,这东西纯属骗局,不可能实现的,燃气公司不会受影响的。但一年之后他成功了。事实上,这些“不可能”的言论在大部分时候都是对的,但问题是当“不可能”的预测是错误时,会发生什么呢?

IIya Sutskever:理解我们究竟在做什么的方式之一就是去投一份保险协议,标的就是AGI的出现早于人们预期。但这又更强调了目前这个问题首先,研究AGI到底是否有意义。如果你回顾历史,人们用符号人工智能做了很多有意思的演示,但他们没法扩展它,也没法用它解决真正的问题。现在利用深度学习,情况就不一样了。我们有了一系列小工具,而且是通用的,这些工具们可以用在各种各样的问题上。它们通用且有效,如果你想从一些非常困难的问题得到最优解,你一定要用深度学习。它还是可扩展的。于是你会说,“好吧,也许开始考虑AGI并非那么毫无意义。”

Kelsey Piper:现在让我担忧的就是,当我跟不忧虑这些的人们讨论时,我说“好吧,AGI有什么让你不安的?”,他们会说,“也许谈论这些还太早,还得至少10年”。他们会再去讨论“无监督学习”,也就是用非结构数据里进行训练。如今GPT-2正在用无监督学习。我们知道,十年前所有人都在说“人工智能都没法分辨现实物体”。如今我们已经基本解决这个问题了。

Greg Brockman:这是个非常有意思的心理学现象,我们适应能力非常强,已经把现在人工智能的发展看成理所应当的东西了。这也能理解,因为理解科技进步和发展是非常困难的。

2014年有个很有意思的小漫画:

漫画文字:

A:当一个用户拍照时,软件应该查看拍照位置是否在国家公园。

B:没问题,简单的地理位置查找,几小时搞定。

A:还得看看照片里是不是只鸟。

B:那,给我一个研究小组,5年时间。

在计算机科学领域,很难(对用户和产品经理)解释容易实现和基本不可能实现之间的区别。

你前面用到了一个词“担忧”。我觉得这很有意思,当人们说起AGI,总着眼于负面情况。或者通常而言,对于科技人们总是着眼于负面情况,但对于AGI或者整体科技业,我认为某种意义上,AGI是我们见过的科技业最极端的例子,但他好的一面其实更令人瞩目。

我们从宏观的角度来看,人类对有能力解决“人人有医保”的问题就没抱希望。这也是我们振奋的所在,我们为积极面而激动。我们认识到了消极的那一面,也认为克服它们是非常重要的。

Kelsey Piper:但如果人们只是看着消极的一面,而不去想积极面…每天有15万人在死去,如果有更好的技术,也许很多死亡可以避免。

Greg Brockman:没错,就是这个意思。

Kelsey Piper:如果你不去思考这些问题,你都没法意识到其紧迫性。

Greg Brockman:对的。

Kelsey Piper:我们前面都在说OpenAI LP能确保收益被合理分配。但收益分配并不是人们朝着AGI方向努力的唯一问题,还有各种各样的风险,比如一些能把我们锁进绝望的未来这样的风险。

Greg Brockman:我们认为AGI会带来三方面的风险,某种意义上也都能归结为一个问题,也即AGI引起飞速变革的能力。可以对比下互联网。

我们让互联网渗透在社会的方方面面中大概用了四、五十年,可以说这个变革依然太快了。看看近来的事件,如果我们能够用更多的事件来理解这些变革对我们的影响就好了。但AGI呢,它可能带来的变革所需的时间,你可以看成互联网的压缩版。

IIya Sutskever:还有第四点,滥用问题。如果你对风险问题比较关心,潜在风险都探索一番,那就不能漏掉人为因素和技术问题。我们努力让政府明白AI发展现状,并尽量让他们正确理解它。同时努力开发AGI,确保它的安全,愿景明确且被遵守。

Greg Brockman:我想你会发现我们的结构有很多奇怪之处,它看起来不像已经存在的结构,它没有先例。这在很大程度上是因为我们考虑了所有风险。

网址:

https://www.vox.com/future-perfect/2019/4/17/18301070/openai-greg-pockman-ilya-sutskever

赞助本站

人工智能实验室

相关热词: openai 人工智能 谷歌 piper agi

AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港