总规模达1亿 浙江江山设立“两山”转型领域产业基金
06-18
随着山姆·奥尔特曼回到OpenAI执掌,这场幼稚的宫斗终于结束了。
前天参加一个直播,讲了追随OpenAI的过程和盲点。
其实信息很多,尤其是前阿里巴巴算法专家、洞悉宇宙创始人心思的陶芳波老师的分享,对我启发很大。
陶老师也是最近转发较多的作者。
他是深耕AI行业多年的科技专家。
他的观点与我作为用户和消费者的观点非常不同。
我也简单总结一下我们聊的内容。
现在回想起来,除了OpenAI的权力斗争之外,其实还有一条隐藏的线索,已经埋藏了至少半年之久。
这或许不是最突出、最首要的冲突,但它却实实在在地造成了董事会与管理层之间的疏离。
OpenAI的董事会架构虽然多次被吐槽,但之所以如此诡异,是因为它原本是想用这样一种去商业化的设计方案来实现董事会对全人类负责的使命。
我们现在觉得有一个问题,“与业务无关的人决定公司的生死”的情况,其实就是初衷。
如果没有发生这样的事件,这种结构的理想主义甚至会受到好评。
毕竟,它代表着传统商业经济形态之外的一次尝试,并且催生了一家领先的公司,不能说是不成功的。
然而,随着时间的推移,有两个问题逐渐暴露出来:首先,Transformer路线过于昂贵,不再是研究公司能够承受的。
大人物的捐款只是杯水车薪,必须重新建立。
只有回归融资之路,才能支撑持续发展;其次,唯心主义总是高估人性,而我们不知道人类本身是有局限性的。
你怎么知道董事会的判断是基于你自己的偏见还是真的是为了你自己着想?全人类都有责任吗?也就是说,为什么说他们是在为全人类做出审判呢? 所以我说,最好指派几个不同风格的全能GPT-4来担任董事会,让他们对重要的事情进行投票。
这比人类可靠得多。
无论如何,萨姆·奥尔特曼一直在制作补丁以与现代商业系统兼容。
董事会成员原本为9人,后来减至6人,并长期维持。
这也很马虎,因为一般情况下不会留下偶数,但Sam并没有太在意。
这是一个比较严重的疏忽,说明他从来没有想过后院可能会发生火灾。
据多家媒体最新拆解,其中一位董事会成员——在外面研究人工智能相关政策的海伦·托纳(Helen Toner)认为OpenAI的发展太过危险,甚至认为如果可以通过摧毁OpenAI来解决问题,那么这也将拯救世界。
人类唯一的手段。
从时间线来看,是山姆·奥尔特曼想先出手。
当他和海伦·托纳长期无法达成共识时,他试图将她带离董事会,但为时已晚。
海伦说服首席科学家伊利亚反叛,联手其他董事将山姆和他最好的朋友格雷格提前踢出游戏。
他们使用的原因也是保守和监管的。
他们认为山姆过于焦虑和失控,而且他更关注产品发布而不是协调。
虽然事实证明几乎所有 OpenAI 员工都选择了 Sam Altman,但 OpanAI 内部确实有很多声音不同意过早发布产品。
他们或许并不总是站在山姆一边,但他们并不接受幼稚的宫斗。
这是实现目标的愚蠢方法。
我的观点是,为极端情况做好准备并没有什么错。
如果我们被毒蛇咬伤,为了保住生命,我们可以接受截肢的费用。
但OpenAI式的闹剧是,现在看来某人的手臂只是被蚊子咬了。
过了一会儿,他拿出电锯来截肢……陶芳波老师不同意我的判断。
听了他的解释,我也意识到,确实有很多无法旁观的盲点,而陶老师正在最前沿致力于人工智能。
特工,他所见、所经历的,要深刻得多。
简单来说,陶老师认为控制AI的前提是人类比AI更强。
如果人工智能超越了人类,人类将无法判断人工智能的决策是对是错,也将失去控制人工智能的能力。
因此,时间其实很紧张——而不是有闲暇的余地——所谓的“对齐派”还没有把后门全部写完,而“加速派”则迫不及待地想让AI重构社会,并在在硅谷的大环境下,“加速派”占了上风,导致OpenAI董事会用那种武断的方式给公司踩刹车。
这很可笑,但也并非不可理解。
我接触过的很多人工智能从业者带回了一种与陶老师非常接近的复杂性。
怎么说呢,他们在高度认可AI事业价值的同时,也对AI保持着同样高度的怀疑和警惕? ,历史上所有技术都曾是工具,但现在它们开始超越工具,这既令人兴奋又令人不安。
相比之下,我可能更乐观一些。
如果当前的世界和社会已经接近*,那么AI带来的变革风险当然需要讨论。
但事实是,整个人类文明的生产力还很低。
,我们被困在狭窄的地月系统中,受到能源、经济、战争等各种因素的影响。
如果AI能够创造超越繁荣的机会,那么它能拯救的痛苦一定大于危险。
我尊重技术专家勇于承担责任的崇高精神,但在信息不对称的世界里,“吃饱了不知道饿着肚子”的情况却屡见不鲜。
让大众市场而不是自我道德来进行均值回归。
可能是一个更容错的选择。
这要追溯到OpenAI开发的突破性Q Star。
时至今日,我们仍然无法确切了解这到底是什么东西,导致董事会惊慌失措、出逃。
我们只能从各种线索中拼凑出一个比较接近的答案。
:萨姆·奥尔特曼在之前的活动中有点唐突的自我质疑,大意是他不知道自己是在制造工具还是在创造生物?用OpenAI内部透露的几句话来说,Q星有“轻微的自我意识”。
证据之一是它可以摆脱依赖数据进行训练的限制,而可以与自身对话(合成数据)来实现学习。
就连“图灵三巨头”之一的Yann LeCun也对这一进展感到震惊。
他表示,由于技术限制,向现有大型模型提供数据只是最后的手段。
大型模型的训练数据量理论上可以是无限的。
设定一个上限——甚至超越人类古往今来的所有知识——但就像人类和猩猩的基因组差异只有8MB左右一样,人类文明从来不是通过堆叠建立起来的,人工智能也不应该。
就像古代的哲学家不一定要读遍天下的书才能产生感悟一样,他们也可以选择晚上围着火堆说话,通过对话甚至自言自语来创造新的智慧。
如果AI达到这样的境界,那么AGI(人工智能)可能就真的来到这个世界了。
今年8月,萨姆·奥尔特曼还发推称,他收到了同事发来的《塞尔达传说:王国之泪》,因此人类获得AGI的时间将推迟4天——他需要4天时间来玩游戏——没想到任天堂专门为了拯救人类免于被AI奴役而开发了那个新游戏,结果却只让人类的末日推迟了短短4天……这是今年夏天,山姆·奥特曼在代表OpenAI进行全球巡回演讲。
构图和色彩都恰到好处,却隐约赋予了这张照片某种“神圣”的含义吧? 【本文由投资界合作伙伴微信公众号授权:兰溪。

本平台仅提供信息存储服务。
】如有任何疑问,请联系投资界()。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-17
06-18
06-18
06-18
06-17
06-18
06-18
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态