本文介绍: GPT的全称是”Generative Pretraining Transformer”,翻译中文的意思是“生成式预训练转换器”。那么GPT到底是个什么东西呢?GPT是由OpenAI实验室开发的自然语言处理(NLP:Natural Language Processing) 模型。那什么是“模型”呢?模型就是一个数学中的函数函数输入参数输出参数我们给同一个函数输入了不同的参数,这个函数会产生不同的输出。通过数据集进行大量的训练,调整权重,从而得到的Text Generation模型。

没想到2023年的双11之后,还能看到如此多的科技圈大佬针对GPT提出火药味十足的讨论和极具戏剧性的表演。

历史回顾:

似乎这些热度都胜过月底的黑五节,但引发这一切争议的就是GPT之战:

  1. 类GPT目前发展到何种程度;
  2. 类GPT的AI是否对人类产生威胁
  3. 类GPT的潜能空间究竟有多少;

什么是GPT

GPT的全称是”Generative Pre-training Transformer”,翻译成中文的意思是“生成式预训练转换器”。那么GPT到底是个什么东西呢?GPT是由OpenAI实验室开发的自然语言处理(NLP:Natural Language Processing) 模型。那什么是“模型”呢?模型就是一个数学中的函数函数输入参数输出参数我们给同一个函数输入了不同的参数,这个函数会产生不同的输出。通过数据集进行大量的训练,调整权重,从而得到的Text Generation模型。

OpenAI

OpenAI 由伊隆·马斯克、萨姆·奥特曼以及其他科技界的杰出领袖于 2015 年 12 月联合创立,最初是一个非盈利的人工智能研究实验室,名为 OpenAI Inc 503©(3) public charity。该实验室专注于开发对人类友好的 AI 技术,其核心宗旨是推进 AI 技术的发展,同时确保这些技术的应用对全人类都能带来积极的影响

从成立之初,OpenAI 便郑重承诺其研究成果将是开源的,以促进全球 AI 领域的合作与进步。这一承诺不仅凸显了 OpenAI 对技术创新的追求,更强调了技术的伦理性和普惠性,旨在通过其工作来推动构建一个由高度发达且安全人工智能技术支持的未来。

然而,OpenAI 面临了诸多挑战,其中之一是吸引顶尖的 AI 人才,尤其是当时这些人才大多被 Google 所垄断。此外,资金问题一直是 OpenAI 的一大难题,尤其作为一个非营利组织,吸引资本投入并不容易。

奥特曼

1985年4月22日,奥特曼出生于美国伊利诺伊州的芝加哥。

和众多硅谷科技大佬一样,奥特曼从小就显露出天才的一面。

3岁时,他就能修家里的VCR;上幼儿园时,他就自己总结出电话区号的编码规律。

8岁时,他拥有了第一台计算机,并沉迷于编程,同时学会了编程和拆解Mac计算机

10岁那年,他建立了自己的第一个网站,主要用于分享自己的兴趣和爱好。

18岁时,奥特曼考上斯坦福大学的计算机系,并在学校的AI人工智能实验室工作,但与多位IT行业领军人物类似,他并没有完成学业。

2005年,还在读大二的他选择从斯坦福辍学创业,随后与一起辍学的两名同学一起开始了首次创业,开发出移动应用程序 Loopt。

这是一个与朋友分享用户位置程序,也是创业加速器 Y Combinator 的首批八家公司之一。当时Loopt一举获得了3000万美元的风投。虽然估值曾达到1.75亿美元,但Loopt并未获得多大成功,最终创始人在2012年以4300万美元的价格将其出售,这个价格几乎接近于Loopt的累计融资额。
在积累了丰富资本后,奥特曼向投资人转型

2012年,卖掉初创公司Loopt后,奥特曼创立了名为Hydrazine Capital 的风险基金,并筹集了2100万美元。奥特曼将其中75%的资金投入了Y Combinator公司,并领投了Reddit的B轮融资。

2014年,奥特曼被Y Combinator创始人选中,正式担任Y Combinator总裁,并于同年秋季在斯坦福大学教授一个名为“如何创业”的系列讲座。

2015年,奥特曼入选了福布斯30位30岁以下风险投资榜单。

随后和马斯克开启了Open AI之旅。

个人看法

争议,往往说明这一事物存在话题性,正如百家争鸣时期的战国,或是文艺复兴时期。不能用传统经验和局限性的观点来预测局势的发展,或者推理最终的结果需要用更多的时间学习研究事物的原理,不要被先入为主的视角影响了个人对真相的判断力。

虽然我没有参与过GPT的研发,也没有仔细阅读过开源的GPT2代码,但是我仍然认为应当以乐观的态度来看待科技的发展。存在即合理。所以我并不怎么赞同“重复开发大模型是资源浪费,拥抱AI需要一把手驱动”这一观点。冗余不是浪费,它可以有效地产生事物发展的更多可能性。而多样性可以提高AIGC模型的鲁棒性。之前我探讨过我们进入到大算力时代,然而目前的算力其实对于训练单一模型是绝对足够的,但是模型的算法不具备唯一性。我们不可能仅从一个已有的训练模型就确认找到了这一领域唯一的AI模型。这一事实的证明是需要团队大量的研究实验的。恰恰说明了数据应该开源共享,反而闭源其实没啥好处。这也是LeCun大佬带领的Meta AI Research和曾经的Musk这里加曾经是我不确定他会开源Grok)一向坚持的观点。建议看看Huggingface.co做参考。

道德的约束不仅是对于ML算法的探讨,同时也是对于人类行为合理性和干预如何分类的探讨。在一个逻辑复杂的世界去抽象地统一几条简单规则,这件事本身就很复杂,能完成就有点幸运。

原文地址:https://blog.csdn.net/weixin_41446370/article/details/134665833

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。

如若转载,请注明出处:http://www.7code.cn/show_6321.html

如若内容造成侵权/违法违规/事实不符,请联系代码007邮箱:suwngjj01@126.com进行投诉反馈,一经查实,立即删除

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注