蘋果公司正在開發一個名為Realm的大型語音模型,該模型旨在顯著提高Siri對上下文的理解和處理。
為什麼這很重要:通過在未來的iPhone和iOS版本中實施自己的大型語音模型,Apple可以為客戶提供高級AI功能,並錯過許多人一直在等待的升級。
- 蘋果公司對領域的發展也可能為進一步的創新鋪平道路,並適當提高競爭。
- 領域應該能夠識別您的屏幕內容並與之互動。
- 即使是領域的最小模型也應該像GPT-4一樣強大。
我的細節:領域的發展是通過新的蘋果研究文件來日光。據此,Apple語言模型應以四種不同尺寸出現。
最後,數字描述了用於數百萬或數十億培訓的參數數量:
- Realm-80m
- 領域250m
- 領域1B
- 領域3B
與GPT相比:根據研究人員的說法,據說具有8000萬個參數的最小模型處於Openais GPT 4的水平。因此,這三個較大的功能更強大。此外,領域應能夠識別和與屏幕內容進行交互。
比賽做什麼?微軟最近有1000億美元的巨額資金OpenAAI的超級計算機並投資了Chatgpt的未來。 Ki功能也是Google,Samsung,小米和其他科技公司的大量聚光燈。
接下來會發生什麼?我們還不知道Apple產品(例如未來的iPhone)中實施領域的方式。但是,我們不太可能對此更加關注WWDC在六月經驗。
我們很高興看到那是否iPhone 16和iOS 18將已經使用新技術了。
您認為蘋果開發了自己的大型語音模型,甚至可能比Openai更強大?在評論中給我們發表意見!