谷歌發(fā)布年度最強的大語言模型Gemini丨微軟Copilot全家桶升級GPT-4 Turbo丨微軟Meta今年買走最多英偉達GPU
AI奇點網(wǎng)2023年12月7日報道丨AI資訊早報
當?shù)貢r間12月6日周三,谷歌正式向公眾發(fā)布新一代大語言模型Gemini,號稱谷歌迄今為止“最大、也最全能的AI模型”,有高級推理能力,回答難題時“考慮得更仔細”。有別于其他公司LLM競品的是,谷歌強調Gemeni是最靈活的模型,因為它用不同大小的版本,可以適用于各種生成式AI應用。
點擊下方卡片了解大模型產(chǎn)品信息:
Gemini總共有三個版本:面對高度復雜任務的Gemini Ultra;用于一般多任務處理的Gemini Pro,以及應用于用戶設備端側的Gemini Nano。
Gemini Nano已經(jīng)可以應用于谷歌的Pixel 8系列智能手機;Gemini Pro即日起支持AI聊天機器人Bard,下周面向云客戶;最強大版Gemini Ultra明年推行,同時也可以支持Bard。
在32項行業(yè)大模型基準指標測試中,Gemini有30種“遙遙領先”GPT-4;Gemini為原生多模態(tài)模型,支持文本和圖像的服務,速度更快、效率更高,在谷歌更高性能云芯片TPU v5p訓練,谷歌搜索明年融入Gemini功能。
當?shù)貢r間12月5日,微軟旗下AI智能助手Copilot發(fā)布一周年之際,官方宣布迎來三項重磅更新,包括加載全新AI模型、新搜索以及代碼解釋器,圖文能力、代碼能力大幅升級。簡單來說,就是ChatGPT Plus能干的活,升級后的Copilot幾乎都能干,并且還免費。
此次更新,微軟Copilot將支持OpenAI最新的GPT-4 Turbo模型,還將文生圖模型DALL-E 3進行了全面升級,從而提供更高質量、更準確的圖像。
搜索方面,Copilot推出兩項新功能,分別從多模態(tài)、意圖理解方面對搜索引擎進行加強。代碼解釋器目前推出簡單版,能以自然語言生成代碼,并支持在沙盒環(huán)境中運行,后續(xù)還將支持上傳和下載文件。
最關鍵的是,微軟Copilot財大氣粗,依然向用戶免費推出使用,這讓每月訂閱20美元的ChatGPT Plus顯得有些缺乏性價比。
當?shù)貢r間12月5日,蘋果機器學習研究團隊的Awni Hannun在GitHub提交了一份MLX機器學習框架的源代碼,這是一個專為Apple Silicon芯片設計的高效機器學習框架,目前已開源。
據(jù)GitHub主頁顯示,MLX包括Python API、C++ API,具有用于自動微分、自動矢量化和計算圖優(yōu)化的可組合函數(shù)轉換,采用惰性計算,動態(tài)構建計算圖,支持多設備,并且統(tǒng)一內存。蘋果還開源了MLX Data,這是一個與框架無關的、高效且靈活的數(shù)據(jù)加載包。
12月5日,美圖公司發(fā)布AI視覺大模型MiracleVision的4.0版本,新增AI設計與AI視頻兩大能力。其中,AI設計具備四大功能,包括矢量圖形、文字特效、智能分層和智能排版,可以滿足AI設計的基礎需求。MiracleVision4.0還上線了全新的視覺模型商店,提供多種風格的視覺模型。AI視頻能力具備文生視頻、圖生視頻、視頻運鏡、視頻生視頻四大功能,目前已能融入行業(yè)工作流,尤其是電商和廣告。
MiracleVision4.0將于2024年1月陸續(xù)應用于美圖秀秀、美顏相機、Wink、美圖設計室、WHEE等美圖旗下產(chǎn)品。同時,美圖還宣布WHEE上線移動端,MiracleVision正式開放商業(yè)API,并提供3個階梯套餐。
如果問一個AI模型開發(fā)程序員,圣誕節(jié)最想要什么禮物?他們的答案肯定是英偉達的GPU。
作為2023年最緊俏的AI硬件,英偉達的H100系列AI芯片已經(jīng)被各大科技巨頭瓜分殆盡。根據(jù)Omdia半導體研究最新公布的報告,微軟和Facebook母公司Meta位居榜首,雙雙從英偉達購買了15萬塊H100 GPU。從第三名開始,購買數(shù)量開始斷崖式下跌。谷歌、亞馬遜和甲骨文等公司各搶到了5萬塊GPU。其中,谷歌通過自研的張量處理器單元彌補了一些外部購買AI芯片的需求。
中國科技巨頭也是英偉達芯片的大客戶,比如騰訊購買了5萬塊H800 GPU,百度和阿里巴巴分別購買了3萬和2.5萬塊GPU。
值得注意的是,本次客戶名單中并沒有出現(xiàn)蘋果的身影。
屏幕前的你,可能還不太熟悉AI大模型的工作原理,簡單地說,現(xiàn)在主流的AI大模型都基于一種名叫Transformer的深度學習架構,這種架構在2017年首次以論文形式被世人所熟知。但是它也同樣存在嚴重的短板——運算效率低下。
為了解決Transformer在長序列上的計算效率低下問題,卡內基梅隆大學和普林斯頓大學的研究者于12月1日提出了一種新架構Mamba(曼巴)。Mamba是一種狀態(tài)空間模型(SSM),具有快速推理和序列長度的線性縮放優(yōu)勢,據(jù)稱吞吐量比Transformer高5倍,并且在真實數(shù)據(jù)上處理長達百萬長度的序列時性能有所提升。
作為一個通用的序列模型主要干,Mamba在語言、音頻和基因組學等多種領域都實現(xiàn)了最先進的性能。在語言建模方面,Mamba-3B模型在預訓練和下游評估方面都優(yōu)于同等大小的Transformer,其性能甚至可與兩倍大小的Transformer相媲美。