从chatgpt面世到全球为之着迷,已经有了近半年时间,可以说,chatgpt的大爆发驱动了行业的大繁荣,随着Ai的应用面越来越广,人们使用中不断进行反馈,AI的表现越来越好。在其擅长的领域,已经可以完全替代人力。甚至有些设计公司,裁员了三分之一的员工,却提供了更好的图片设计产品。
资本市场也早已把当前Ai的各个方向预期了一轮,从训练AI所需要的算力芯片,到拥有大量芯片的数据中心,到云服务商,再到各类正在开发Ai产品的公司,最后到应用侧,各类传媒、教育、游戏公司。
无所不想,无所不炒,但倘若我们问问自己,chatgpt真的影响了我们生活中的方方面面了吗,似乎又还没到这个程度。
(资料图片仅供参考)
必须承认的是,在创意制作领域,我们确实看到了一些震撼的表现,但在AI的大规模应用方面,人们期待的自动化操作,却还有更多进步的空间,至少,目前的Ai在日常应用中还是太少,除了程序员和设计师,编辑等,其他职业使用的依赖度还是不够高,Ai更大规模的落地,还需要更多努力。
一、多模态大模型的成本制约
目前人们最期待的莫过于GPT-5,期待它可以更聪明,回答更多的问题,未来甚至能够分辨语音和图片,甚至视频,试图打造一个无所不能的chatgpt。
让长板更长的思路总是正确的,但可以预期的是,对大模型更大的追求,将面临算力和成本的制约。
可以看到,GPT-4的升级过后成本是数十倍的跃迁,目前的GPT-4收费,也只是维持盈亏平衡,但问题在于,除了设计及编程相关人员,20美元的收费是需要考虑的,至少从身边的样本看,很多用户依然使用的是免费版本,有需要时,与他人共享一个GPT plus账户。
当下也许Ai更加实用的关键,并不是再度加大模型,不断地扩充其计算容量,而是如何让其更普遍,更轻量些。
我们可以对照电子计算机的诞生历史。
原先的计算机只是开发用于军事和政府用途的大型机器,其使用方式跟现在的Ai如出一辙,都是中心化的,也就是一个大型终端,用户通过连接到终端来使用。
但显然,计算机真正走向爆发并提升生产力,并不是在40年代-60年代问世的时刻,而是在后来,PC的出现才带来了计算机应用的大爆发,每个人都可以极其轻易地,不受限制地使用PC,这带来了互联网的爆发,而在PC普及的几十年后,智能手机将终端再次革新,使得互联网走向了新的高潮。
Chatgpt目前的问题同样是用户在使用过程中,首先需在使用中缺乏更多的多样性,例如每个用户若打算基于自己的工作习惯打造合适自己的Ai,还有相当的难处。
企业使用API,则也面临着数据开放的疑虑,至少目前,没看到有哪个应用或者公司已经深度结合chatgpt推出产品,毕竟,把自己的数据库完全给Ai看个遍,是很令人担忧的。
另外,用户使用chatgpt的方式过于中心化,这导致了较高的不稳定性,而例如断网或者chatgpt服务器过载等问题,依然困扰着很多用户,不稳定就导致了很多自动化流程无法实践。
如现在我们在使用chatgpt中面临的痛点,与chatgpt进行的对话均保存在云端,而随着使用量的增加,重度使用者的对话量已经积累得非常庞大,可能高达数十条或者数百条对话,以解决不同的场景,而实际上每次打开chatgpt,加载这些数据已经开始缓慢了起来。
再看到,GPT-4的运算速度相比GPT-3.5,确实是慢了不少,倘若未来的GPT-5加入图片等模态输入,其运算量的加大就更不言而喻了。
即便用户对于运算速度的问题可以容忍,但更大的运算量所带来的成本和定价问题,则也是openai等公司不得不考虑的。
看上去chatgpt是一个杀手级应用,全球无数用户都愿意使用,然而,要走出成功商业循环,或者说,要让chatgpt马上盈利,也不是那么简单的。
面对此种问题,将chatgpt适当的本地化是一个很好的思路。届时,较快的运算速度,更稳定的使用体验,才会使得其的功能最大化。而包括大量的IOT设备,也才能更好地接入Ai。
其实我们看到目前的Ai绘画和Ai拟声,都是本地化、专类化取得成功的例子。
如大名鼎鼎的midjourney,就凭借其过硬的产品取得成功,我们看到的设计公司减员增效,也都基于这个。应该明确的是,Ai绘画与chatgpt是完全分离的东西,Ai绘画是应用了机器学习模型在设计领域的一个应用,它与chatgpt的成功没有太大关系,千万不要把它们混作一谈:Ai。
在商业层面,midjourney更成熟,首先其专类化,用户明确就是设计团体,尽管图片处理的计算量比文字大,但不需要像gpt大模型一样面面俱到,要考九门考试,又要编程,所以其训练量只要面向图片即可,成本平衡得更容易。
又比如Ai拟声,最近我们看到了通过人声训练所产出的各类ai歌曲,如ai周杰伦,ai孙燕姿翻唱的数百首歌曲,效果不错,这同样是与chatgpt关系不大,同样是基于ai的基础算法取得的成功。
而制造出这些产品的基础,其实就是开源的,可以在自己搭建的本地环境中训练的模型。比如midjourney,实际上只是11个人+非常基础有限的硬件。
再仔细想想,chatgpt所生成的产品,是不是还是欠缺的呢?Chatgpt让人印象深刻的,是文章还是笑话?(请排除所有的AI绘画、Ai音乐作品,它们不是gpt的产物)
所以说,chatgpt作为一个大模型在自然语言理解上有其巨大价值,但应用侧需要完善,需要更多的用户来使用参与,来发散自己的创意把Ai应用好。
其角色更应该是基础性的,类似于Ai绘画中的diffusion算法,来帮助用户继续开发更进一步的产品。所以,追求大模型的同时,专类化更是Ai进化的关键。
当然,要达到此种效果,首先需要openai等公司在商业模式上的改变,包括将训练Ai的一部分职能让渡给用户,给予更高的自由度。也包括硬件层面的适配。例如设计在PC层面支持特定Ai运算的芯片,以应付本地启动模型运算的基础算力。
另外,还需要将Ai进行小型化轻量化,部分的数据保存在本地,不再进行预加载。大模型过大后,将其特定用途分型,即为剪枝,以达到更低的运算量,这都是需要重新设计的。
二、适应新时代的趋势
因此,Ai时代的下一个看点,并不是GPT-5或者GPT-6后面还有多聪明,因为目前的chatgpt在应付人类的问题上已经足够好,正如图片所示,进步空间其实就是剩下的比例了,而明显,距离满分已经不远。
关于大模型的发展,未来分化成小模型,提炼其核心能力,使其可以被更多用户所使用,创造是关键,我们还是从痛点出发,倘若要实现本地化,使得每个人可以训练自己的Ai,首先要的是硬件方面的适配。
如算力,满足本地化进行Ai训练和运算的芯片将是一个开放的方向,这其中需要的,首先是GPU公司的适配,对未来PC整个业务模式的适配,这个机会不只是英伟达的,实际上几个芯片业内的巨头还是有机会参与竞争,另外,FPGA和ASIC芯片也应该在这个趋势的发展中有一定的地位。
当然,也别忘了,作为芯片的载体,也是训练和运用Ai的载体,无论是PC还是手机,都有在这基础上实现功能创新的可能。
当在Ai实现专类化的过程中,也需要一部分公司对于大模型进行修整,重塑,如一些公司正在针对chatgpt的数据缓存进行改善以实现数倍的加载速度提升。同样地,一些基于chatgpt所建设成的专类AI已经实现了更快的运算速度,如文本识别的等。这些完善Ai结构,把chatgpt从大模型分离出小模型的公司,同样大有前途。
三、结语
新事物的诞生总是需要一段时间的适应期,需要时间让人们去应用,发掘,创造,对于chatgpt而言,明显,现在就是在一个事物认知逐渐从发现亮点到发现缺点的过程,一定的担忧和怀疑将很快到来。
大模型的未来,依然充满不确定性,如何让其本地化以实现运算速度和稳定性的提高,成为小模型,个人模型(personal model)确实是现在提升使用体验的关键。无论是Ai绘画还是Ai音乐,都是小模型的好例子。
因此朝着这方向,新的个人化硬件发展和应用侧的开发,将是未来一段时间Ai发展的重点,而单纯的大模型模仿,在算力上,在模型参数量上的内卷,不一定是更应该聚焦的方向。
目前AI的快速发展,痛点的出现总是不可避免的,方向的改变也是迅速的,革命性归革命性,人们使用chatgpt及其衍生产品的比例,时长,在这些产品上的付费额,包括相关Ai公司所得到的营收及增长,才是对Ai产业发展程度更立体的观察指标。而明显,现在的Ai,仍需要更多的改善。
责任编辑:
关键词:
最新资讯