地址:沾化
电话:0783-987088
传真:0781-986360
邮箱:suizhongxian1009887@126.com
鱼羊 发自 凹非寺
量子位 | 公众号 QbitAI
苹果Transformer的揭秘r基“秘密”,让发烧友给扒出来了。揭秘r基
大模型浪潮下 ,揭秘r基即使保守如苹果,揭秘r基也每逢发布会必提“Transformer” 。揭秘r基
例如 ,揭秘r基在今年的揭秘r基WWDC上 ,苹果就已宣布 ,揭秘r基船新版本的揭秘r基iOS和macOS将内置Transformer语言模型,以提供带文本预测功效的揭秘r基输入法。
苹果官方没有透露更多信息,但技术爱好者们可坐不住了 。揭秘r基
一位名叫Jack Cook的揭秘r基小哥,就把macOS Sonoma beta翻了个底朝天,揭秘r基成果,揭秘r基还真挖出不少新鲜信息:
更多细节 ,一起来看 。
基于GPT-2架构
先来回顾一下苹果基于Transformer的语言模型能在iPhone、MacBook等设备上实现怎样的功效 。
主要体现在输入法方面。语言模型加持下的苹果自带输入法 ,可以实现单词预测和纠错的功效 。
Jack Cook小哥具体测试了一下 ,发现这个功效主要实现的是针对单个单词的预测 。
△图源 :Jack Cook博客文章
模型偶尔也会预测即将出现的多个单词,但这仅限于句子语义十分明显的情况,比较类似于Gmail里的自动完成功效 。
△图源:Jack Cook博客文章
那么这个模型具体被装在了哪里 ?一通深入挖掘之后 ,Cook小哥确定:
我在
/System/Library/LinguisticData/RequiredAssets_en.bundle/AssetData/en.lm/unilm.bundle 中找到了预测文本模型。
缘故是:
进而 ,小哥根据unilm_joint_cpu中描述的网络结构 ,推测苹果模型是基于GPT-2架构打造的 :
主要包含token embeddings、位置编码 、解码器块和输出层 ,每个解码器块中都有类似gpt2_transformer_layer_3d这样的字眼。
△图源 :Jack Cook博客文章
根据每层大小