麻豆国内精品欧美在线-麻豆国内精品久久久久久-麻豆国产在线观看一区二区-麻豆国产在线观看免费-麻豆国产原创-麻豆国产一区二区在线观看

去年股價跌去四分之三的meta,元宇宙的故事才剛剛開始。互聯網+

差評 2023-04-23 11:40
分享到:
導讀

至少從大伙們討論度上來看。。。 是有點涼透了的意思。

至少從大伙們討論度上來看。。。 是有點涼透了的意思。 在各種 AI 新聞滿天飛的 2023 年,大家還記得大明湖畔的元宇宙嗎?  至少從大伙們討論度上來看。。。 是有點涼透了的意思。 最近一次上熱搜,也只剩林俊杰元宇宙血虧 90% 這類的被套牢新聞。 而其中,曾扯著嗓子高調梭哈,甚至不惜押上了姓名的 Meta ,更成了大伙們的笑料。  先是去年 10 月份股價一度較最高點跌去 75% 。 而后今年在其他科技大廠大模型滿天飛, AI 發布會都快開了一輪的情況下。 這個 Meta ,好像除了裁員,還是裁員。 “ 呦 ~ 扎哥你是不是因為搞元宇宙又裁員了。 ”  “ 隨后什么降本增效啊,為社會輸送人才啊,一句句冒了出來,到處充滿了歡聲笑語。 ”  就連隔壁部門的同事,都玩著類似的梗。。。并問著差評君, Meta 在AI 時代咋掉隊了?他們還元得下去不? 不過,笑歸笑,鬧歸鬧,咱還真別拿 Meta 的人工智能開玩笑。 差評君在這兒,直接給大家先省個流,那就是 Meta 在 AI 領域,還真不是大家眼中的軟蛋。 并且給個暴論啊( 不構成投資建議),他們離自己的元宇宙目標可能還更近了。 這么說吧,雖然 Meta 官方在大模型的聲量和宣傳上,確實沒別家高,但 Meta 的人工智能技術,在世界范圍內,還真沒有誰能說它不行。 深度學習框架這個東西大家曉得伐?  這個東西是用來方便開發訓練深度學習模型的,相當于 AI 界的操作系統。 在 17 、 18 年這會兒,市場上占據最多使用率的,還是人谷歌大名鼎鼎的 TensorFlow 。 這個時候的 TensorFlow 可以說是眼中毫無對手,畢竟 15 年發家,大量人力維護更新,自開源后就把市場上的其它深度學習框架擠得沒有生存空間了。 可沒想到,谷歌這好日子過了還沒多久,半路突然殺出來一個程咬金, Pytorch 發布了,這個由當時還叫 Facebook 的公司主導開發的深度學習框架,從易用性著手,自發布之后,用戶一路走高。 并在 19 年逆襲谷歌,成為目前最受歡迎的深度學習框架。 但好漢總不能只提當年勇,如今大火大語言模型, Meta 其實也不,只是人家沒有專門開發布會發布而已。 它們家的大語言模型 LLaMA ,也就是羊駝 ( 或者翻譯成:草泥馬 ),在圈兒內的名聲,完全不輸 GPT 。  本來呢,這個模型是只釋放給一些科研機構用作研究用的,結果,不知道哪個小崽子,腦子一熱,就給公開到網上去了。 好家伙,不公開不要緊,這一公開,各種各樣復刻 ChatGPT 的項目就來了。 什么斯坦福的羊駝只要 100 美元就能比肩 GPT3.5 啊。。。 又是什么 UC 伯克利的 “ 小羊駝 ”130 億參數平替 ChatGPT 啊。 感覺是個人就能出大語言模型的樣子。。。  而且,據他們測試,這個 LLaMA 在很多項的能力比拼下,是優于 GPT-3 的。。。 到現在,這個模型已經在各大機構大佬的努力勞作下,開枝散葉,誕生了一批 “ 羊駝家族 ” 了。。。 甚至可以說現在的學術圈和開源社區,已經是一只只草泥馬的形狀了。 在另一個人工智能領域, CV ( 計算機視覺 )圈, Meta 的動靜可就更大了。  4 月 5 號, Meta 就發布了一個用于圖像分割的 AI 大模型:Segment Anything Model 。 在官網的演示中,比如這張男子打籃球的圖片,只需要給圖片中的物體標一個點,就能自動切割出咱們想要的主體。 甚至,如果有一些圖片過于復雜,你自己都懶得去點標記的話,你還可以把分割的任務全權交給 SAM ,直接點擊 Everthing ,它就自動幫你把圖片中的可分割物體切割出來。 整個過程方便簡單快捷。 所以,這個模型一經推出,眾多 CV 界師生紛紛大喊: CV 不存在了。 原因就是他把現在 CV 比較熱門的方向,比如目標檢測,圖像分類,物體分割等等,差不多都解決得很好了。 英偉達的人工智能科學家 Jim Fan , 甚至還把 SAM 的出現比喻成 CV 界的 “GPT-3 時刻 ” ,可見各位業內人士對 SAM 的認可了。 但,這還不是結束,僅僅就在幾天前。 咱們的扎哥又親自通過臉書,宣布開源了另一個重磅模型, DINO V2 。 它還能通過一張二維的圖片,去估計場景的三維深度,比如下圖右邊的灰度圖,就是通過左邊的場景估算生成的。 深度圖記錄了整個場景的深度信息,有了這個深度信息,你甚至能從一張平面的圖像中,建模出一個 3 維的場景。 另外, DINO V2 的圖像特征提取功能 + 語義分割,更是把以圖搜圖的能力抬到了另外一個臺階。  以往的以圖搜圖,只能搜索相似的畫面。 但是加上了特征提取和語義分割之后,你不僅能搜索到相似的圖片,還能以單個圖像特征為條件,搜索不同風格的圖片。 只要是 CV 類的任務,這個 DINO V2 基本都能作為任務的主干去完成。 而且,從官方提供的四個預訓練模型來看,這四個面模型,參數最高的一個, ImageNet Linear 精度最大達到了 86.5% 。 在之前,同領域表現最好的 OpenClip ,其所預訓練出來的模型,表現最好的精度也只有 80.1%  不管是 Pytorch 、 LLaMA 、 SAM ,還是 DINO V2 , 上面的這些成果, 其實大都來自 Meta 的兩個專攻 AI 的實驗室。 其中一個是 Facebook ’ s Artificial Intelligence Research ,簡稱 FAIR ,主攻研發,另一個則是 Applied Machine Learning ,主攻應用落地。 而且他們的研究基本全部開源, 在測試可用后,你都能在開源網站上找到項目的源碼。 所以說,Meta 不但沒有在 AI 時代掉隊,反而已經屬于靠前的梯隊。 那么說了這么多, 它們和小扎一直掛在嘴邊的元宇宙,有啥毛線關系呢?  其實早在 16 年的開發者大會上,小扎就給出了在公司未來的發展方向上,給出了三步走的計劃。 第一步,先要連接世界,這個就是扎哥的老本行了,社交網絡。  第二步,以人工智能為核心,打造連接世界的技術核心,這也是它們從好幾年前一直做的事情。 而第三步的 VR 和 AR 嘛。。。要放到現在,翻譯翻譯,這還是元宇宙。。。 所以說發展 AI,早在小扎的小本本上。  咱們也回頭看看一下之前 Meta 那些無論是大模型、還是計算機視覺的開源項目,在某種程度上,其實都是在降低 AI 使用的門檻。 而 AI 的發展,又能推動元宇宙的建設。  可以細品一下幾天前,小扎在發布 DINO V2 時臉書上寫的這么一句話:  “ 在未來,這可能有助于改善醫療成像、糧食作物生長, 并有助于使元宇宙更加沉浸。 ”  說白了小扎在 “ 元宇宙 ” 的路上不僅沒自認折戟,反而可能更加自信了。 而隨著 AI 技術的持續發展,特別是 AIGC 的普及,各種AI建模,AI繪圖,AI音樂等工具的出現。。。 說不定真能讓元宇宙里的內容越來越多,越來越逼真。  反正在使用過了不少大語言模型,被無數以假亂真的AI圖震撼過之后。。。。 元宇宙這個不久前還那么縹緲的概念, 在 AI 的助力下,好像也沒那么的玄了。 撰文:晚上吃早飯編輯:江江 封面:萱萱 圖片、資料來源: DINOv2 by Meta AI演示地址。 FaceBook最新的圖像分割模型SegmentAnything到底有多厲害? 知乎 - 有問題,就會有答案 OpenCLIP Nikolaj Buhl : Segment Anything 模型 (SAM) 解釋_踏實鉆研的博客-CSDN博客 www.cnbeta.com.twMeta開放 那個元宇宙 Yahoometa 裁員 www.myzaker.com 夢想家扎克伯格為Facebook插上人工智能之翼 - 點滴網

1.TMT觀察網遵循行業規范,任何轉載的稿件都會明確標注作者和來源;
2.TMT觀察網的原創文章,請轉載時務必注明文章作者和"來源:TMT觀察網",不尊重原創的行為TMT觀察網或將追究責任;
3.作者投稿可能會經TMT觀察網編輯修改或補充。


主站蜘蛛池模板: 天天舔天天操天天干 | 91传媒制片厂果冻有限公司 | 天天gan | 亚洲午夜精品久久久久久成年 | 成人福利在线视频免费观看 | 俄罗斯极品h在线 | 97久久天天综合色天天综合色hd | 高跟丝袜麻麻求我调教 | 国内精品久久久久久不卡影院 | 男男双性生子产乳高辣h | 亚洲国产精品无圣光一区二区 | 黑人巨大videosjapan高清 黑人好大 | 久久久影院亚洲精品 | 爱福利一区二区 | 国产人成精品午夜在线观看 | 好逼365 | 亚洲精品影视 | 日本视频在线观看播放 | 欧美一区二区三区视视频 | 欧美人做人爱a全程免费 | 久久精品一区二区三区资源网 | gogort人体的最新网站 | 成年人免费观看视频网站 | 性柔术18性13处交 | 美女乳液 | 精品国产品香蕉在线观看75 | 国产三级自拍视频 | 欧美jjvideo | 555www成人网 | 亚洲精品第二页 | 免费看国产一级片 | 国产免费午夜 | 99热精品在线播放 | 秋霞黄色片 | 青草草产国视频 | 亚洲精品人成网在线播放影院 | 武侠艳妇屈辱的张开双腿 | 麻豆最新地址 | 四缺一的小说 | 亚洲国产成人久久精品影视 | 日韩理论片在线看免费观看 |