www.第四色,熟女少妇色综合图区,日本sm/羞辱/调教/捆绑视频,网站国产,亚洲国产成人久久综合一区77

首頁 > 資訊 > 科技 > 正文

壓縮算法為大語言模型“瘦身”

2024-11-23 10:36:00來源:科技日報

據(jù)美國科學(xué)促進會旗下網(wǎng)站19日報道,美國普林斯頓大學(xué)和斯坦福大學(xué)團隊開發(fā)出一種新壓縮算法CALDERA,能精簡大型語言模型(LLM)的海量數(shù)據(jù),為LLM“瘦身”。這項算法不僅有助保護數(shù)據(jù)隱私、節(jié)約能源、降低成本,還能推動LLM在手機和筆記本電腦上高效使用。

團隊舉例稱,當(dāng)人們使用ChatGPT時,請求會被發(fā)送到OpenAI公司的后端服務(wù)器進行處理。這一過程不僅成本高昂、能耗巨大,通常還很慢。如果用戶想要使用消費級圖形處理單元運行LLM,就需要對這些LLM進行壓縮。

CALDERA算法通過減少LLM冗余并降低信息層的精度來發(fā)揮作用。“瘦身”后的LLM更加精簡,可在手機或筆記本電腦等設(shè)備上存儲和訪問,同時提供了與未壓縮版本幾乎一樣準(zhǔn)確而微妙的性能。

雖然CALDERA并非首個壓縮LLM的算法,但其獨特之處在于兼具“低精度”和“低排序”兩種特性。其中,“低精度”減少了比特數(shù),加快了數(shù)據(jù)存儲和處理速度。而“低排序”則降低了LLM數(shù)據(jù)中的冗余。

團隊表示,使用CALDERA壓縮的LLM可能適用于那些對精度要求不是最高的場景。此外,用戶可在智能手機或筆記本電腦等設(shè)備上對壓縮后的LLM進行微調(diào),這使其能根據(jù)特定需求調(diào)整模型來增強隱私,而無需與第三方共享敏感數(shù)據(jù)。

不過團隊也提醒道,在智能手機或筆記本電腦上運行LLM,可能會占用設(shè)備內(nèi)存。

關(guān)鍵詞:

責(zé)任編輯:孫知兵

免責(zé)聲明:本文僅代表作者個人觀點,與太平洋財富網(wǎng)無關(guān)。其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本站證實,對本文以及其中全部或者部分內(nèi)容、文字的真實性、完整性、及時性本站不作任何保證或承諾,請讀者僅作參考,并請自行核實相關(guān)內(nèi)容。
如有問題,請聯(lián)系我們!

關(guān)于我們 - 聯(lián)系方式 - 版權(quán)聲明 - 招聘信息 - 友鏈交換 - 網(wǎng)站統(tǒng)計
 

太平洋財富主辦 版權(quán)所有:太平洋財富網(wǎng)

?中國互聯(lián)網(wǎng)違法和不良信息舉報中心中國互聯(lián)網(wǎng)違法和不良信息舉報中心

Copyright© 2012-2020 太平洋財富網(wǎng)(yuef.cn) All rights reserved.

未經(jīng)過本站允許 請勿將本站內(nèi)容傳播或復(fù)制 業(yè)務(wù)QQ:3 31 986 683