谢美蓝的悲伤,李杰浑然不知。
他既不想知道,也没有任何兴趣跟她产生任何联系。
再说了,他现在也没有那个美国时间。
他的当务之急是完成论文。
新论文的标题、正文部份他都写好了,就差一些数据。
《基于多层神经网络的图片修复算法研究与实现》
对于神经元的研究,可谓是由来已久,早在上个世纪初,生物学家就知道了神经元的组成结果。
1943年,心理学家麦克罗克和数学家皮特斯就提出利用神经元网络对信息进行处理的数学模型。
也就MP模型。
1958年,神经网络之父弗兰克·罗森布拉特完善了该模型。
后来,各路专家陆续进行了更新。
但神经网络的模型过于复杂,参数过多,很容易出现一些BUG。
简单来说,不是神经网络模型不够好,而是计算资源不够多。
如果李杰不是掏出全新的算法,仅凭他手上的这点资源,哪有资格玩这种东西。
老老实实去玩Transformer模型不好吗?
还真不行。
Transformer模型那是GPT的领域,李杰没想着跟对方竞争。
另外。
他也没想着搞一个什么万能的大模型。
这篇论文的重点在于图片修复,文物修复,其他后续的开发,他只是留了一个引子。
通俗的形容,他在人工智能赛道开了一条新路。
目前,他只开辟了一条很狭小的小道,走图片修复完全没问题。
至于大模型什么的。
只有一点。
光!
光明!
大家都能看到,但想要把这条路掘开、拓宽,正常来说没个二三十年的研究,那是不可能滴。
甭管未来谁会开通这条路,李杰已经站在了顶点。
所有人都要给他留下‘买路钱’。
这篇论文,未来会成为新模型的开篇之作,只要是研究这个领域的人,必须要深读。
写论文?
必须引用!
一枪成名!
可以预见的是,这篇论文发布后,业界必然会抖上三抖,那些搞大模型的企业,多半会像他抛出橄榄枝。
高薪、期权,唾手可得。
不过。
(本章节未完结,点击下一页翻页继续阅读)