2023年8月第4周大模型荟萃
- 2023.8.31
- 版权声明:本文为博主chszs的原创文章,未经博主允许不得转载。
美国华盛顿一家法院近日裁定,根据美国政府的法律,在没有任何人类输入内容的情况下,人工智能(AI)创作的艺术作品不受版权保护。美国地区法官Beryl Howell于8月18日表示,只有人工智能与人类作者合作的作品才能获得版权,并确认美国版权局驳回了计算机科学家Stephen Thaler代表其DABUS系统提出的申请。此前Thaler认为自己的人工智能系统DABUS拥有创造的艺术作品的版权,但美国版权局拒绝了他的申请,理由是“人类思维与创造性表达之间的联系”是版权保护的关键要素。
最近科大讯飞财报显示,上半年营收78.42 亿元,同比下降 17.64%;净利润 0.74亿元,同比大幅下降73.54%。科大讯飞公司称,主要原因是为应对美国极限施压,在核心技术自主可控和产业链可控等方面坚定投入的同时,抢抓通用人工智能的历史新机遇,加大通用人工智能认知大模型的战略投入。
而另一家大模型公司商汤,最近再次传出火速裁员的信息,N+2赔偿,上午通知,下午走人。
新加坡国立大学大模型团队近日表示,从 2016 年至 2021 年 1 月,AI 模型的参数量是每 18 个月增长 40 倍;从 2018 年 1 月到 2021 年 1 月,AI 大语言模型的参数量每 18 个月增长 340 倍。而相形之下,2016 年 1 月至 2021 年 1 月间,GPU 的内存增长每 18 个月仅有 1.7 倍。由此得出了GPU内存的增长速度远跟不上大模型的发展速度。
这种认识存在较大的偏差,属于片面的看待问题。要知道,大语言模型是从2017年Google发布Transformer论文后才逐渐开始发展的,然后OpenAI加速了它的爆发,故大语言模型的参数量从2018年开始就呈现爆发状态;而GPU的内存从1999年GPU诞生开始,它的内存就存在了,然后逐年递增,发展规律与摩尔定律相似。其次,硬件(GPU内存)的发展速度与软件(大模型的参数量)的发展速度不是同一个规律,故进行类比很不适合。
2023年亚布力论坛夏季高峰会于8月24日-27日在深圳召开,科大讯飞创始人,董事长刘庆峰出席并演讲。刘庆峰介绍,华为的GPU技术现在已经与英伟达A100相当,但由于算子库不全,因此整体效率与英伟达相比仍存在差距。但任正非非常重视这个问题,“华为的三位董事作为联系工作组到科大讯飞,我们成立了一个专班工作,目前已经可以媲美英伟达A100,这是非常了不起的。”刘庆峰称。“以前百模大战,基本都是由英伟达训练的。企业内部只能进行微小的调优和训练,而基本的训练模型是比较困难的。”刘庆峰表示,这次基本上解决了这个问题。
但是无需高兴,这不过是合作伙伴的吹捧之言而已。事实上,1)华为目前没有自研的 GPU 落地;2)华为目前没有完全对标 NVIDIA A100 的产品,昇腾 NPU 属于 CPU+ AI 加速器,和GPU是两回事;3)另外,HW也欠缺对标CUDA的生态;4)与英伟达不同,华为昇腾 AI 芯片没有细分;而英伟达明确表示 L40S 与 H100 等大模型 GPU 分属不同应用领域,前者面向 Dell 等 IT 企业而后者面向 AI 云计算公司。真相到底如何,需要后续的科学评测。
8 月 21 日消息,快手自研的大语言模型“快意”(KwaiYii)近日已开启内测,并为业务团队提供了标准 API 和定制化项目合作方案。“快意”是由快手AI团队独立自研的大规模语言模型,而本次发布的正是其新版本KwaiYii-13B。
根据快手自测结果(快意的GitHub主页)显示,KwaiYi-13B-Base大模型在多个方面超越ChatGLM2,可以支持内容创作、信息咨询、逻辑推理、数学解题、代码编写、多轮对话等任务。
今日,韩国半导体公司SK海力士宣布成功开发出面向AI的高性能DRAM(动态随机存取存储器)新产品HBM3E,并开始向客户提供样品进行性能验证,将于明年上半年投入量产。据称,HBM3E每秒最高可处理1.15TB的数据,其散热性能与上一代产品HBM3相比提高了10%,且具备向后兼容性,可直接用于基于HBM3组成的系统。
最近,阿里云官方公众号官宣了一款大模型数学工具 MindOpt Copilot,把大模型作为建模助手,接收用户以自然语言提出的优化问题,就可自动建模并调用求解器完成求解。MindOpt Copilot,把大模型作为建模助手,接收用户以自然语言提出的优化问题,就可自动建模并调用求解器完成求解。MindOpt Copilot可用于解决餐饮、零售、物流货运、生产制造等场景的资源配置和优化问题,将于近期上线阿里云并对外提供服务。
MindOpt Copilot基于阿里自研的大模型、求解器、建模语言“三大件”开发,借助底层的通义千问大模型,可将用户以自然语言描述的优化问题转化为线性规划和混合整数线性规划的优化模型,并获得最佳答案,比如“如何优化餐厅的座位安排”、“如何控制风险并最大化企业收益”或“鸡兔同笼”类问题。
近日,Meta官宣AI大模型SeamlessM4T,该模型可翻译和转录近百种语言。SeamlessM4T能实现近百种语言的自动语音识别、语音到文本翻译,以及近百种输入语言和35种输出语言的语音翻译、文本转语音翻译。
构建通用语言翻译器有一定挑战性,因为现有的语音到语音、语音到文本的系统都只涵盖了全球现存语言的一小部分,SeamlessM4T扩大了语言覆盖的范围,并且是一个可以完成多种任务的统一多语言模型。秉持其一贯的开源策略,Meta在开源协议CC BY-NC 4.0下公开发布了SeamlessM4T,开发人员可以在这个模型的基础上进行开发。同时,Meta还发布了SeamlessAlign的数据集,其博客提到这也是迄今为止最大的开放多模态翻译数据集,覆盖挖掘的语音和文本对齐总计达270000小时。
Meta在开源的道路上越走越远。
VMware和英伟达宣布合作推出面向企业的AI平台VMware Private AI Foundation with NVIDIA,并计划于2024年初发布。该平台提供各种集成式AI工具,将使企业能够创建供内部使用的私有模型,并运行各种生成式AI应用,如智能聊天机器人、助手、搜索和摘要等。作为全集成式解决方案,该平台采用英伟达提供的生成式AI软件和加速计算,基于VMware Cloud Foundation构建,并针对AI进行了优化。
2023钉钉生态大会上公布了全面智能化的最新进展:已有17条产品线、55个场景全面接入大模型,完成智能化再造;同时面向生态伙伴和客户开放智能化底座AI PaaS,下接大模型,上连用户需求。钉钉方面透露,其生态伙伴和企业可以基于AI PaaS开发各类AI应用。叶军现场实景演示了基于AI PaaS和生态伙伴共创的新产品“数字员工”,以及会议、点餐、教育等多种场景、行业的AI解决方案。
对于备受关注的大模型落地应用场景的收费问题,钉钉也给出了明确的方案:钉钉专业版年费9800元基础上,增加10000元即可获得20万次大模型调用额度;在专属钉钉年费基础上,增加20000元即可获得45万次大模型调用额度。
钉钉声称,截至2023年3月末,钉钉软件付费企业达10万家,其中,小微企业占比58%,中型企业占比30%,大型企业占比12%。钉钉ARR(年度经常性收入)远超半人马公司1亿美元评估标准,仅软件订阅式GAAP收入也已经明显超过这个数字。
清华大学电子工程系与字节跳动火山语音团队合作,于近日推出一款认知导向的开源听觉大语言模型SALMONN(Speech Audio Language Music Open Neural Network),该模型不仅能够感知和理解各种类型的音频输入,还涌现出多语言和跨模态推理等高级能力。目前SALMONN能够胜任英语语音识别、英语到中文的语音翻译、情感识别、音频字幕生成、音乐描述等语音和音频任务,同时涌现出多种在模型训练中没有专门学习过的多语言和跨模态能力,涵盖非英语语音识别、英语到(中文以外)其他语言的语音翻译、对语音内容的摘要和关键词提取、基于音频的故事生成、音频问答、语音和音频联合推理等任务。
工业AI预测性维护公司频率探索近日完成数千万元A轮融资,本轮投资由涌铧投资领投,常州高新投跟投,融资资金将主要用于产品研发、生产线建设与市场拓展。频率探索成立于2021年,是一家工业AI预测性维护公司。公司掌握了大量的工业设备机理研究数据及信号分析诊断方法,能够为设备故障提供早期诊断、故障量化、寿命预测及智能运维服务。
在好未来20周年直播活动中,好未来CTO田密宣布推出好未来自研的数学领域千亿级大模型MathGPT并开启内测。即日起,用户可通过官网(www.mathgpt.com)申请注册账号免费试用体验。
今年5月,好未来曾公布正在进行自研数学大模型的研发,命名为MathGPT。MathGPT是面向全球数学爱好者和科研机构,以解题和讲题算法为核心的数学垂直领域的大模型,也是国内首个专为数学打造的大模型。
近日,OpenAI 正式发布面向企业的 AI 助手 —— ChatGPT Enterprise 版。企业版可以以更快速度无限制地访问 GPT-4,还可以用来处理更长输入的上下文窗口、拥有加密、企业级安全和营私以及组帐户管理功能。
- 企业版拥有 32,000 个 token 上下文窗口,允许用户处理四倍长的输入、文件或后续操作,简单来看,这意味着它可以同时处理更多文本(或进行更长时间的对话)。token 可以被认为是单词的片段,32,000 个标记大约相当于 24,000 个单词。
- 企业版可以无限制访问 GPT-4(无使用上限),与此同时,访问速度还提高了 2 倍。
- 企业版还提供对高级数据分析的无限制访问,也就是之前的代码解释器。
- 企业版具有企业级隐私、安全和部署工具保护数据,可以让企业拥有并控制自己的业务数据,而 OpenAI 不会对企业的业务数据或对话进行训练,也不会从企业的使用中进行学习。
之前的采矿热潮刚刚凉去,如今的AI热潮更加汹涌百倍,英伟达的人工智能处理器现在“一芯难求”,它甚至成了划分科技界“贫富”的分界线。研究公司SemiAnalysis分析师迪伦·帕特尔(Dylan Patel)和丹尼尔·尼什鲍尔(Daniel Nishball)在上周末对英伟达GPU的分布情况进行了分析,通过企业所拥有的GPU数量对科技界进行了“贫富”划分,分成了两组。
SemiAnalysis的数据显示,少数公司从英伟达那里获得了2万多颗A100或H100 GPU。H100是英伟达最新旗舰AI芯片,价值4万美元。它的前一代是A100芯片,价值1万美元。
1)位于第一梯队的是目前行业领先的AI公司,包括OpenAI、谷歌、Anthropic、Inflection、埃隆·马斯克旗下X、脸书母公司Meta,以及中国互联网巨头如字节跳动、百度、腾讯和阿里巴巴等。
据外媒报道,中国互联网巨头已经订购了价值50亿美元的英伟达芯片。由于美国政府采取的限制措施,中国公司只能采购降级版A800芯片,它的性能要比英伟达的尖端A100或H100芯片弱一些。另外,他们还采购了价值40亿美元的英伟达GPU,2024年交付。
按照H100 GPU的数量计算,Meta将排名世界第二。那么谁是第一呢?谷歌。SemiAnalysis指出,这家互联网巨头是“世界上计算资源最丰富的公司”,具有“无与伦比的高效架构”。
2)位于第二梯队的是知名的AI创业公司,比如Hugging Face、Databricks和Together,它们所拥有的GPU数量也很少。以及国内其它搞大模型的大型企业,这些国内大型企业寻求寻求性能低一两档次的替代方案。
3)其次就是欧洲创业公司和政府支持的超级计算机项目,比如“儒勒凡尔纳”(Jules Verne)以及国内的创业型AI公司,它们在AI大模型训练上“完全没有竞争力”。
商汤大模型SenseChat正式开放试用,见:https://chat.sensetime.com/wb/,手机号注册即可使用。目前只提供了一个文生文模型,也即问答模型。这速度,相比于文心、星火、通义千问等落后了不少,吹了几个月的牛,终于落到实处了。
8 月 29 日,美图公司宣布旗下 AI 数字人生成工具 DreamAvatar 已于近日上线,首期推出“AI 演员”数字人服务,以 AI 驱动为核心,服务于视频内容创作、影视处理与剪辑等生产力场景。目前,DreamAvatar“AI 演员”支持最长 10 秒视频的转化,共推出了机器人、兽人、类人三大题材共计 11 个不同风格的数字人形象。见https://www.dreamavatar.com/
原文链接:https://blog.csdn.net/chszs/article/details/132595261?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522170018760516800192295358%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fblog.%2522%257D&request_id=170018760516800192295358&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~blog~first_rank_ecpm_v1~times_rank-7-132595261-null-null.nonecase&utm_term=AI%E6%B3%95%E5%BE%8B%E5%92%A8%E8%AF%A2