伊芙.特罗娜
3902
大模型真正兴起是openai的chatgpt之后啊,gpt1和2还是限于业界有影响,真正出圈是基于3.5的chatgpt,在22年底
包括生成式ai爆火也是21,22那段时间开始
17年现在所有大模型的基础才刚发布出来,在此之前的ai和现在用的ai基础架构都有很大不一样了
再往前更是很难说人工智能和现在是一条路子了,暴论一点,现在的ai范式就是openai趟出来的路子,不过也很难讲这会不会是最终通向agi的路子
所以你招8年经验意义很大吗,不好说(
太暴论了折叠
还有现在被称作人工智能之父的大佬们,他们当然地位卓绝,但是暴论一点他们的做法其实和现在的ai并不是一脉相承的,他们最主要的贡献是在ai一眼看不到未来的年间坚持了下来
所以为什么tx一亿年薪挖的是97年的人才,因为现在爆火的ai就是个很年轻的东西 
1 个赞
刘明诚
3903
传统AI才可能有8年经验,生成式AI有个五年经验就已经是顶格大佬级别的了
刘明诚
3904
17-18年AI模型都在跑什么,都是死命堆小模型,识别图像就是一道坎,不知道死了多少研究人员在这上面
伊芙.特罗娜
3905
搞ai经常说gpt一出再无nlp,就是现在爆火的ai一定程度上甚至终结了以前ai的研究领域(
8年经验搞不好是负面效果多
我印象里
那个时候好像已经开始出现“给模型堆极高的参数量”这条路了?
而且
Transformer好像就是2017年吧
那几年是不是谈NLP的比较多?
刘明诚
3908
你要说GPT这个路子在20年之前有没有人走,明确的说,有的,比如字节就跑出来过类似的模型,但是参数量没那么大,而且内部评估认为没什么用武之地,就丢一边了
刘明诚
3909
有这个想法但是实践的不多,因为当时没有人能明确的回答加大参数量就能有什么明确的效益,而从硬件、成本等多方面考量,业界普遍倾向于搞小模型
LLX
3910
所以雾都的前景还是太难想了,技术,技术融合,游戏景观…我真的很难想象
尤其是雾都,大概率还是要上手机的,那他的技术实现我也很难想,甚至说对于引擎的调配,也是一个很有想象空间的事
刘明诚
3911
openai搞3.5从某种意义上来讲更像是在赌,结果赌出来了,直到现在具体的原理机制都还没能搞清楚,只有经验规律scalling laws
伊芙.特罗娜
3912
说ai是泡沫也没问题也有问题,没问题是现在这条路子大家都希望能通向agi,但是谁都不好说继续砸钱能不能砸到下一个涌现,砸到真正的agi出来
有问题是ai这个东西本来就不是吹的,真的做出来agi,那确实是工业革命一样的东西
你说元宇宙,我觉得稍微有点从业知识的都知道那是纯吹的,离得太远了,你说ai,chatgpt真的让大家产生了一种也许agi唾手可得的幻想,只能说希望不是又希望是(
不过哪怕砸不出来,接下来转向应用方面也是大有可为的,熟练使用gpt这种的我觉得都很难离得开了 
ai真的太好用了你知道吗(
伊芙.特罗娜
3914
不能这么说,跑出来类似模型都来了,那google17年端出来transformer了,后面还有bert,你说gpt在transformer上有质的改变吗,没有啊
就是openai趟出来了这条路真没问题,从训练方法,数据搜集处理到超级大的参数量,不是说从小参数量到大参数量好像说说区别不大,只是加参数量而已,这种东西不是这样的
就好像我说我能跑1km,跑马拉松的能跑42km,我说我只比跑马拉松的少跑了一点,那是少跑了一点嘛,那是纯往我脸上贴金啊
你这么说就是纯给字节贴金,transformer出来谁没搞类似的模型,都搞了,就openai真搞出来了一条路,让openai在ai一直领跑到现在
刘明诚
3915
不是我给人家贴金,字节自己在发布会上讲的嘛,我算是原话转述(笑)
刘明诚
3917
有,神经网络的可解释性多少还是有点进展的,比如物理神经网络的运行可以可解释性地运行,还比如说可视化注意力机制也在探索,之前通义的门控注意力机制”(Gated Attention)也算是新进展。
伊芙.特罗娜
3918
从14年就开始堆参数量了,加深加宽神经网络
现在所有大模型的基础说的就是transformer
但是从1层堆到10层也是堆,10层堆到100层也是堆
1层有1层的训练方法,数据处理方法,10层有10层的,100层到现在千亿参数有现在千亿参数的训练方法
参数量变化不只是参数量变化,整个全套的配套设置,数据的搜集处理,训练的方法,都是有改变的
在gpt出来之前,ai主要的两大领域分别被认为是cv(浅显理解就是处理图片一类的ai,比如图像识别,分割)和nlp(浅显理解就是处理文字一类的ai,比如说翻译),chatgpt一开始是个文本聊天助手,所以说当年gpt终结了nlp,因为基本上所有涉及文字的任务,gpt基本上都能完成。
伊芙.特罗娜
3920
那年会给自己贴金也没什么毛病 
大家确实都试了,也可以说就openai是个犟种,认定了增加参数量和数据量,就嗯砸,结果真做出来了
一定程度上其他大厂都是受到了大公司的限制
当然大厂有自己的优势,后发也不怕晚,google就大有根基太厚了后发先至的感觉
刘明诚
3921
AI加游戏现在能聊的毕竟少,实践的也少,目前做的最好的也还是蔡喵的WFTS