從GPT-4.5起,參數(shù)從5萬億一路飆升至如今GPT-5的50萬億,它帶來了多模態(tài)理解核心突破。在2025浦江創(chuàng)新論壇上,清華大學教授、人工智能研究院智能機器人中心主任孫富春表示,人是跨模態(tài)學習,像摸瓶子融合視覺與觸覺感知。GPT-5在跨模態(tài)學習方面能力提高了84%,極大增強了對多感官信息融合處理。未來,搭建智能體與大模型間的橋梁,或?qū)㈤_啟AI全新變革。
(科技日報記者 聶慧敏 趙衛(wèi)華)
從GPT-4.5起,參數(shù)從5萬億一路飆升至如今GPT-5的50萬億,它帶來了多模態(tài)理解核心突破。在2025浦江創(chuàng)新論壇上,清華大學教授、人工智能研究院智能機器人中心主任孫富春表示,人是跨模態(tài)學習,像摸瓶子融合視覺與觸覺感知。GPT-5在跨模態(tài)學習方面能力提高了84%,極大增強了對多感官信息融合處理。未來,搭建智能體與大模型間的橋梁,或?qū)㈤_啟AI全新變革。
(科技日報記者 聶慧敏 趙衛(wèi)華)
網(wǎng)友評論