亚洲,欧美,中文字幕,小婕子伦流澡到高潮视频,无码成人aaaaa毛片,性少妇japanesexxxx,山外人精品影院

越過(guò)技術(shù)拐點(diǎn)的視頻模型或許是個(gè)更有前景的生意

  記者/王杰夫 編輯/吳洋洋 美編/車(chē)玲玲

  本月的語(yǔ)言模型領(lǐng)域格外平淡,除了OpenAI最大的競(jìng)爭(zhēng)對(duì)手Anthropic推出了最新模型Claude 3.5 Sonnet,幾乎沒(méi)有其他新模型、新技術(shù)的重磅消息,Claude的這次半代升級(jí)目標(biāo)也只不過(guò)是追趕GPT-4o。可以說(shuō),2024年雖然已經(jīng)過(guò)半,語(yǔ)言模型的智力依舊停留在2023年的水平,并沒(méi)有太大長(zhǎng)進(jìn)。

  這種“原地踏步”的狀態(tài)或許會(huì)比預(yù)想中持續(xù)更久。OpenAI首席技術(shù)官朱拉·穆拉蒂(Mira Murati)6月20日在母校達(dá)特茅斯工程學(xué)院的訪(fǎng)談透露的信息暗示了這種可能。她在訪(fǎng)談中先將GPT-3的智力水平比作幼兒,再將GPT-4的智力水平比作高中生,而對(duì)于博士級(jí)別的智能系統(tǒng),在主持人的追問(wèn)下,她表示從現(xiàn)在起還要差不多一年半的時(shí)間才會(huì)面世。

  從悲觀的角度理解,OpenAI的下一代模型,也就是GPT-5的推出時(shí)間,可能要等到明年甚至后年,而非大部分人期待的今年夏天。更悲觀一點(diǎn),這可能意味著在過(guò)去一兩年中OpenAI的大殺器—“規(guī)模定律”(Scaling Law)可能碰壁了,換句話(huà)說(shuō),哪怕堆更多數(shù)據(jù)、用更強(qiáng)算力訓(xùn)練出參數(shù)規(guī)模更大的模型,其智力水平的增長(zhǎng)也非常有限。

  沒(méi)有能力更強(qiáng)的模型就沒(méi)有更多用戶(hù),產(chǎn)生不了足夠多的收入也就無(wú)法覆蓋高昂且固定的資本支出。在這個(gè)背景下,最近一周紅杉資本美國(guó)合伙人David Chan的《AI的60 0 0億美元問(wèn)題》就容易理解了。他在這篇文章中指出,哪怕對(duì)Google、微軟、字節(jié)跳動(dòng)、阿里巴巴等技術(shù)公司從生成式AI中獲得的收入做最樂(lè)觀且慷慨的假設(shè),與它們?cè)贏I基礎(chǔ)設(shè)施上的投入(主要是采購(gòu)英偉達(dá)GPU)相比,中間依然有近50 0 0億美元的空缺。

  幸好,本月還有好消息。語(yǔ)言模型領(lǐng)域可能遇到了瓶頸,視頻模型領(lǐng)域卻格外熱鬧,OpenAI的Sora年初在湖中央投下的石子,終于在這個(gè)月激起了波浪。

  首先是普通用戶(hù)終于可以體驗(yàn)類(lèi)似Sora的視頻模型產(chǎn)品了。要知道Sora自從在年初連續(xù)放出多個(gè)驚艷演示后就再無(wú)聲息,這使得很多人對(duì)于這種技術(shù)是否真的有演示中那么強(qiáng)大表示懷疑,對(duì)于其商業(yè)前景的想象也就無(wú)從談起。

  本月先后有兩款視頻模型開(kāi)放了免費(fèi)體驗(yàn),分別是快手的“可靈”模型與Luma A I的Dream Machine模型。它們都借鑒了Sora的技術(shù)路線(xiàn),并且從實(shí)際演示效果看,生成的視頻雖然不及Sora驚艷,相比去年最好的視頻模型如Pika 1.0、Gen-2只能生成“會(huì)動(dòng)的照片”,這兩款模型已經(jīng)有了巨大進(jìn)步—無(wú)論鏡頭如何運(yùn)動(dòng),物體依然可以保持相對(duì)真實(shí)的透視效果,這種對(duì)物理世界的模擬能力正是Sora模型最引以為豪的突破。

  其次,Runway也在本月發(fā)布了新款模型G en-3 A lpha,極佳科技則發(fā)布了“視界一粟Yi Su”視頻模型,它們沒(méi)有向普通用戶(hù)提供體驗(yàn)入口,但從公布的技術(shù)參數(shù)上看這兩款模型都有亮點(diǎn)。Gen-3 Alpha生成視頻的速度顯著提升,只要9 0秒就可以生成長(zhǎng)達(dá)10秒的視頻;而“視界一粟YiSu”最大的特點(diǎn)是對(duì)算力的要求低,號(hào)稱(chēng)可以配置在端側(cè),支持生成最長(zhǎng)16秒的視 頻。

  最后,本月還出現(xiàn)了不少視頻模型的真實(shí)用例。比如咪咕視頻在歐洲杯賽事轉(zhuǎn)播中就插入了由AI生成的宣傳片《歐洲杯是什么?》;TikTok發(fā)布了一個(gè)提供給商家的AI工具,可以在一分鐘內(nèi)根據(jù)客戶(hù)提供的產(chǎn)品信息生成視頻。它們展現(xiàn)出視頻模型在商業(yè)廣告市場(chǎng)的潛力。

  或許是時(shí)候重新評(píng)估語(yǔ)言模型與視頻模型的商業(yè)前景了。一直以來(lái),語(yǔ)言模型因可以模擬人類(lèi)思維而備受關(guān)注,毫無(wú)疑問(wèn),這是最有希望通往通用人工智能(AGI)的一條道路。然而,如果語(yǔ)言模型的能力在短時(shí)間內(nèi)沒(méi)有突破性進(jìn)展,當(dāng)前的大模型應(yīng)用樣例就很難發(fā)生本質(zhì)改變。即使優(yōu)化文本表達(dá)、總結(jié)內(nèi)容等樣例已經(jīng)在當(dāng)前技術(shù)水平下被打磨得足夠成熟,它們也主要集中在個(gè)人生產(chǎn)力的提升 上。

  相比之下,視頻生成模型雖然剛剛起步,卻有著更大的想象空間。對(duì)比一下語(yǔ)言模型與視頻模型當(dāng)前的潛在應(yīng)用場(chǎng)景可以發(fā)現(xiàn),前者的場(chǎng)景更多是個(gè)人的、分散的,而后者的場(chǎng)景是產(chǎn)業(yè)化的、集中的。換句話(huà)說(shuō),前者解決了一個(gè)成本中心的問(wèn)題,后者卻可以在利潤(rùn)中心發(fā)揮作 用。

  視頻是目前最流行的消費(fèi)內(nèi)容形態(tài),無(wú)論是電影、電視劇,還是短視頻。如果視頻模型可以解決其中一半的產(chǎn)出,那么至少會(huì)是一個(gè)千億美元規(guī)模的生意。而且別忘了,一切與利潤(rùn)中心相關(guān)的生意都更加容易推動(dòng)。

關(guān)注讀覽天下微信, 100萬(wàn)篇深度好文, 等你來(lái)看……