微軟的另一條“腿”,要做真正Open的AI
不過他們很快撤回了這條消息
這兩天,蘋果不造車改轉AI的新聞鬧得火熱,另一邊,作為老對手的微軟也在悄摸擴張自己的AI版圖。
是的,坐擁OpenAI這座“人工智能金字招牌”的微軟并沒有停下腳步,在27號收購了一家名為Mistral AI的歐洲初創公司的少數股權。Mistral與OpenAI一道,成為了微軟行走在人工智能領域的堅實“大腿”。
區別于名字帶著“Open”實際并不“Open(開源)”的OpenAI,Mistral創立之初的使命就是“引領開放模型的革命。”
歐洲人自己的“Open”AI
Mistral從創立至今,一直很少在打得火熱的人工智能競賽中發聲。
(圖源:Mistral AI)
團隊的三位創始人CEO Arthur Mensch和CTO Timothée Lacroix、首席科學家Guillaume Lample此前分別在DeepMind和Meta從事大模型的相關工作。
由于抱有相同的理念,機緣巧合之下三人在法國創立了Mistral AI。由于人工智能產業在歐洲市場本就不多,再加上幾位創始人的履歷,在沒有任何產品的情況下,Mistral就收獲了來自Lightspeed Venture Partners光速全球領投的1.13億美元種子輪投資。
造就了“6人,4周,7頁PPT,1.13億美元”的AI投融資傳奇,當然,這樣的故事自然會引起一定的非議,當時也被認為是AI泡沫的代表。
不過好在,收下融資的Mistral AI相當迅速地拿出了第一個作品——Mistral 7B,并且沒有任何花里胡哨的宣傳、發布會,直接在社交媒體上貼了一個磁力下載鏈接,讓所有想部署的用戶都能直接免費獲取。
帶領“小”模型風潮
根據Mistral官方的說法,在所有的基準測試中,Mistral 7B的表現甚至還要優于130億參數的Llama 2,在代碼、數學和推理測試中,甚至超過了有數倍參數量差距的Llama 1 34B。
(圖源:Mistral AI)
不僅在性能上更優,Mistral 7B由于參數量的原因,更適合在消費級設備上進行部署,有人就分享了在自己的蘋果筆記本上運行的效果,在量化后更是發現,Mistral 7B只需要不到5GB內存和6GB的GPU顯存,只需微調,即可在單卡上運行。
(圖源:網絡)
而且就在不到2個月后,他們又火速拿出了首個MoE開源模型Mixtral 8x7B,參數量級還是70億,但是架構方案有了少許變化。
根據描述,Mixtral 8x7B采用了一種稀疏的專家混合網絡,模型分成了8個不同方向領域的專家,在每次處理時,選擇其中兩個專家來實現輸出,這樣既能夠快速響應完成任務,也相應減少了推理成本。
這個模式就非常眼熟,很像傳聞中GPT-4的架構方案(即16個專家總數,單個專家166B參數),不過是縮小版的,并且Mixtral 8x7B與GPT-4一樣也是32K上下文。
在這樣的改變下,Mixtral 8x7B不僅有多項測試能夠領先10倍參數的Llama 2 70B,還差不多追平了GPT-3.5。
(圖源:Mistral AI)
這樣的產品不僅讓Mixtral AI在去年11月初收獲了一筆3億美元的戰略投資,也掀起了AI行業“小”模型的風潮,畢竟再強的模型也需要有用戶才有價值。
初心變了?
可就在AI圈因為有這樣的真·“Oepn”AI而雀躍時,事情突然急轉之下。
Mixtral AI在被微軟收購的同時,帶來了一款號稱可以跟GPT-4扳手腕的新品——Mistral Large。官方宣稱的性能、訓練成本等等具體如何姑且不論,有人發現,這次Mixtral沒有再大手一揮拋出下載鏈接任人取拿,反而還把官網中關于開源社區義務的相關內容給刪除了。
(圖源:Mistral AI)
從后續CEO“堅持開源理念,但也會有閉源模型參與商業競爭”的回應來看,Mistral Large“閉源”是板上釘釘了。
也無怪Mistral,畢竟還是初創公司,在算力、資金等方面還是有所欠缺的,一直“用愛發電”也無法長久。
Mistral AI 的使命是引領開放模型的革命。
“Mistral AI”撤回了一條消息
本文作者:Visssom,觀點僅代表個人,題圖源:@MistralAI
最后,記得關注微信公眾號:鎂客網(im2maker),更多干貨在等你!
硬科技產業媒體
關注技術驅動創新