完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>
標(biāo)簽 > nlp
文章:485個 瀏覽:22626次 帖子:14個
Prompt Tuning相比于Fine Tuning在哪些場景下表現(xiàn)更好?
第三范式:基于「預(yù)訓(xùn)練模型 + finetuning」的范式,如 BERT + finetuning 的NLP任務(wù),相比于第二范式,模型準(zhǔn)確度顯著提高,...
2023-02-02 標(biāo)簽:模型深度學(xué)習(xí)nlp 2975 0
大模型參數(shù)高效微調(diào)技術(shù)原理綜述
神經(jīng)網(wǎng)絡(luò)包含很多全連接層,其借助于矩陣乘法得以實現(xiàn),然而,很多全連接層的權(quán)重矩陣都是滿秩的。
2023-06-13 標(biāo)簽:神經(jīng)網(wǎng)絡(luò)SVD電源優(yōu)化器 2946 0
什么是零樣本學(xué)習(xí)?為什么要搞零樣本學(xué)習(xí)?
零樣本分類的技術(shù)目前正處于高速發(fā)展時期, 所涉及的具體應(yīng)用已經(jīng)從最初的圖像分類任務(wù)擴展到了其他計算機視覺任務(wù)乃至自然語言處理等多個相關(guān)領(lǐng)域。 對此, 本...
2023-09-22 標(biāo)簽:深度學(xué)習(xí)自然語言處理nlp 2940 0
NLP一個重要的范式包括在通用領(lǐng)域數(shù)據(jù)上的大規(guī)模預(yù)訓(xùn)練和在特定任務(wù)或者領(lǐng)域上的微調(diào)。
2022-11-24 標(biāo)簽:PLMLoRa技術(shù)nlp 2841 0
NLP-Progress庫NLP的最新數(shù)據(jù)集、論文和代碼
方向是自然語言處理的同學(xué)們有福啦,為了跟蹤自然語言處理(NLP)的進展,有大量仁人志士在 Github 上維護了一個名為 NLP-Progress 的庫...
2018-11-17 標(biāo)簽:代碼數(shù)據(jù)集NLP 2800 0
圖文多模態(tài)領(lǐng)域典型任務(wù)如img-text retrieval、VQA、captioning、grounding等,目前的學(xué)術(shù)設(shè)定難度尚可。但是, 一旦知...
2022-09-01 標(biāo)簽:語言模型數(shù)據(jù)集nlp 2761 0
為什么bigram或者trigram的LM很重要呢?去做一個語言模型的問題,實現(xiàn)深度模型之前,第一步其實就要寫一個bigram或者trigram的LM。...
2019-03-15 標(biāo)簽:深度學(xué)習(xí)自然語言處理nlp 2759 0
通過人工標(biāo)注等方式,使用監(jiān)督學(xué)習(xí)的模式對GPT3模型(對這個是chatGPT模型的base)進行初步訓(xùn)練(有監(jiān)督微調(diào),SFT),從而得到一個初步能夠理解...
我們驚訝地發(fā)現(xiàn)BERT在參數(shù)推理理解任務(wù)中的峰值性能達到77%,僅比平均未經(jīng)訓(xùn)練的人類基線低3個點。但是,我們表明這個結(jié)果完全是通過利用數(shù)據(jù)集中的虛假統(tǒng)...
2019-07-27 標(biāo)簽:數(shù)據(jù)集自然語言nlp 2643 0
NLP上估計會幫助reduce overfitting, improve generalization,但是與其花時間改這個地方不如好好clean da...
2024-03-13 標(biāo)簽:gpuTransformernlp 2597 0
關(guān)于“NLP中的遷移學(xué)習(xí)”的教程
這些改進,加上這些方法的廣泛可用性和易集成性,使人們想起了導(dǎo)致計算機視覺中預(yù)訓(xùn)練字嵌入和ImageNet預(yù)訓(xùn)練成功的因素,并表明這些方法很可能成為NLP...
2019-06-23 標(biāo)簽:nlp遷移學(xué)習(xí) 2582 0
近來NLP領(lǐng)域由于語言模型的發(fā)展取得了顛覆性的進展,擴大語言模型的規(guī)模帶來了一系列的性能提升,然而單單是擴大模型規(guī)模對于一些具有挑戰(zhàn)性的任務(wù)來說是不夠的
2023-05-10 標(biāo)簽:機器學(xué)習(xí)MDAGPT 2548 0
基于OpenAI的GPT-2的語言模型ProtGPT2可生成新的蛋白質(zhì)序列
人類語言與蛋白質(zhì)有很多共同點,至少在計算建模方面。這使得研究團隊將自然語言處理(NLP)的新方法應(yīng)用于蛋白質(zhì)設(shè)計。其中,德國Bayreuth大學(xué)Birt...
在過去十年中,人工智能支持的語音識別系統(tǒng)逐漸成為我們?nèi)粘I畹囊徊糠郑瑥恼Z音搜索到聯(lián)絡(luò)中心、汽車、醫(yī)院和餐館的虛擬助手。這些語音識別的發(fā)展得益于深度學(xué)習(xí)的進步。
文本生成模型已成為文本輸入方法(如聯(lián)想詞、語言檢查等)的重要技術(shù)支撐。
作為一個兼具分析&生成能力的AI,ChatGPT最近一段時間熱度都非常高,它的確顛覆了很多人的認知,它的出現(xiàn)一定程度上是強人工智能的出現(xiàn)。
用于學(xué)習(xí)對象級、語言感知和語義豐富視覺表征的GLIP模型
Visual recognition 模型通常只能預(yù)測一組固定的預(yù)先確定的目標(biāo)類別,這限制了在現(xiàn)實世界的可擴展能力,因為對于新的視覺概念類別和新的任務(wù)領(lǐng)...
一文概述2018年深度學(xué)習(xí)NLP十大創(chuàng)新思路
將常識融入模型是向前發(fā)展的最重要方向之一。然而,創(chuàng)建好的數(shù)據(jù)集并不容易,甚至最常用的那些好的數(shù)據(jù)集還存在很大的偏差。今年出現(xiàn)了一些執(zhí)行良好的數(shù)據(jù)集,它們...
2019-02-04 標(biāo)簽:機器翻譯深度學(xué)習(xí)nlp 2377 0
編輯推薦廠商產(chǎn)品技術(shù)軟件/工具OS/語言教程專題
電機控制 | DSP | 氮化鎵 | 功率放大器 | ChatGPT | 自動駕駛 | TI | 瑞薩電子 |
BLDC | PLC | 碳化硅 | 二極管 | OpenAI | 元宇宙 | 安森美 | ADI |
無刷電機 | FOC | IGBT | 逆變器 | 文心一言 | 5G | 英飛凌 | 羅姆 |
直流電機 | PID | MOSFET | 傳感器 | 人工智能 | 物聯(lián)網(wǎng) | NXP | 賽靈思 |
步進電機 | SPWM | 充電樁 | IPM | 機器視覺 | 無人機 | 三菱電機 | ST |
伺服電機 | SVPWM | 光伏發(fā)電 | UPS | AR | 智能電網(wǎng) | 國民技術(shù) | Microchip |
Arduino | BeagleBone | 樹莓派 | STM32 | MSP430 | EFM32 | ARM mbed | EDA |
示波器 | LPC | imx8 | PSoC | Altium Designer | Allegro | Mentor | Pads |
OrCAD | Cadence | AutoCAD | 華秋DFM | Keil | MATLAB | MPLAB | Quartus |
C++ | Java | Python | JavaScript | node.js | RISC-V | verilog | Tensorflow |
Android | iOS | linux | RTOS | FreeRTOS | LiteOS | RT-THread | uCOS |
DuerOS | Brillo | Windows11 | HarmonyOS |