完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>
標(biāo)簽 > nlp
文章:485個(gè) 瀏覽:22622次 帖子:14個(gè)
影響AI生態(tài)系統(tǒng)的七大主要趨勢(shì)
過去,計(jì)算機(jī)只能在人類語言首先被翻譯成代碼后才能理解。但通過使用NLP,機(jī)器能夠在文本保持其自然狀態(tài)的情況下獲取智能。
機(jī)器人是一種擁有無盡可能性的技術(shù),尤其是當(dāng)搭配了智能技術(shù)時(shí)。近段時(shí)間創(chuàng)造了許多變革性應(yīng)用的大模型有望成為機(jī)器人的智慧大腦,幫助機(jī)器人感知和理解這個(gè)世界并...
2024-01-26 標(biāo)簽:機(jī)器人計(jì)算機(jī)視覺自然語言處理 443 0
Continous Batching大模型推理關(guān)鍵技術(shù)
TurboTransformers算是比較早期指出輸入變長(zhǎng)需要新的Batching方法的論文。在2020年上半年,我開始思考如何把變長(zhǎng)輸入Batchin...
BERT和 GPT-3 等語言模型針對(duì)語言任務(wù)進(jìn)行了預(yù)訓(xùn)練。微調(diào)使它們適應(yīng)特定領(lǐng)域,如營(yíng)銷、醫(yī)療保健、金融。在本指南中,您將了解 LLM 架構(gòu)、微調(diào)過程...
2024-01-19 標(biāo)簽:神經(jīng)網(wǎng)絡(luò)nlpChatGPT 1879 0
基礎(chǔ)模型在解決機(jī)器人技術(shù)中的數(shù)據(jù)稀缺問題上至關(guān)重要。它們?yōu)槭褂米钌俚奶囟〝?shù)據(jù)學(xué)習(xí)和適應(yīng)新任務(wù)提供了堅(jiān)實(shí)的基礎(chǔ)。
如何利用位置編碼實(shí)現(xiàn)長(zhǎng)度外推?
無論是縮放位置索引還是修改基地,所有token都變得彼此更接近,這將損害LLM區(qū)分相近token的位置順序的能力。結(jié)合他們對(duì)RoPE的波長(zhǎng)的觀察,存在一...
2024-01-08 標(biāo)簽:語言模型Transformer位置編碼器 742 0
許多研究證明,學(xué)術(shù)論文表達(dá)的nativeness會(huì)影響其被接受發(fā)表的可能性[1, 2]。先前的研究也揭示了非英語母語的作者在國(guó)際期刊發(fā)表論文時(shí)所經(jīng)歷的壓...
2024-01-03 標(biāo)簽:數(shù)據(jù)收集數(shù)據(jù)集自然語言處理 683 0
什么是神經(jīng)網(wǎng)絡(luò)?神經(jīng)網(wǎng)絡(luò)是如何工作的?GPT與神經(jīng)網(wǎng)絡(luò)的關(guān)系
作為一名程序員,我們習(xí)慣于去了解所使用工具、中間件的底層原理,本文則旨在幫助大家了解 AI 模型的底層機(jī)制,讓大家在學(xué)習(xí)或應(yīng)用各種大模型時(shí)更加得心應(yīng)手,...
2023-12-13 標(biāo)簽:神經(jīng)網(wǎng)絡(luò)RGB人工智能 2253 0
無監(jiān)督域自適應(yīng)場(chǎng)景:基于檢索增強(qiáng)的情境學(xué)習(xí)實(shí)現(xiàn)知識(shí)遷移
本文對(duì)比了多種基線方法,包括無監(jiān)督域自適應(yīng)的傳統(tǒng)方法(如Pseudo-labeling和對(duì)抗訓(xùn)練)、基于檢索的LM方法(如REALM和RAG)和情境學(xué)習(xí)...
深入理解BigBird的塊稀疏高效實(shí)現(xiàn)方案
RoBERTa 架構(gòu)的 BigBird 模型現(xiàn)已集成入 transformers 中。本文的目的是讓讀者 深入 了解 BigBird 的實(shí)現(xiàn),并讓讀者能...
2023-11-29 標(biāo)簽:gpu算法Transformer 913 0
基于顯式證據(jù)推理的few-shot關(guān)系抽取CoT
最近,上下文學(xué)習(xí)策略已被證明在沒有訓(xùn)練的情況下顯示出顯著的結(jié)果。很少有研究利用上下文學(xué)習(xí)進(jìn)行zero-shot信息提取。不幸的是,推理的證據(jù)在思維鏈提示...
FoolNLTK — 作者號(hào)稱“可能不是最快的開源中文分詞,但很可能是最準(zhǔn)的開源中文分詞”。 這個(gè)開源工具包基于 BiLSTM模型 訓(xùn)練而成,功能包含分...
2023-10-30 標(biāo)簽:數(shù)據(jù)分析python工具包 1407 0
模型壓縮涉及將大型資源密集型模型轉(zhuǎn)化為適合在受限移動(dòng)設(shè)備上存儲(chǔ)的緊湊版本。此外,它還可以優(yōu)化模型以實(shí)現(xiàn)更快的執(zhí)行速度和最小的延遲,或在這些目標(biāo)之間取得平衡。
2023-09-26 標(biāo)簽:模型數(shù)據(jù)集nlp 1505 0
一個(gè)在推上測(cè)試Phi-1.5的例子引發(fā)了眾多討論。例如,如果你截?cái)嘞聢D這個(gè)問題并輸入給Phi-1.5,它會(huì)自動(dòng)完成為計(jì)算第三個(gè)月的下載數(shù)量,并且回答是正確的。
2023-09-25 標(biāo)簽:模型數(shù)據(jù)集nlp 455 0
什么是零樣本學(xué)習(xí)?為什么要搞零樣本學(xué)習(xí)?
零樣本分類的技術(shù)目前正處于高速發(fā)展時(shí)期, 所涉及的具體應(yīng)用已經(jīng)從最初的圖像分類任務(wù)擴(kuò)展到了其他計(jì)算機(jī)視覺任務(wù)乃至自然語言處理等多個(gè)相關(guān)領(lǐng)域。 對(duì)此, 本...
2023-09-22 標(biāo)簽:深度學(xué)習(xí)自然語言處理nlp 2939 0
一般而言,越復(fù)雜的任務(wù),越充裕的資源,應(yīng)該是各自用更加專業(yè)的方案來做各自的上限才會(huì)比較高,大模型能提供的,是一個(gè)基礎(chǔ)的、快速的、zero shot或者f...
大模型基礎(chǔ)Transformer結(jié)構(gòu)的原理解析
該研究的結(jié)果適用于一般數(shù)據(jù)集,可以擴(kuò)展到交叉注意力層,并且研究結(jié)論的實(shí)際有效性已經(jīng)通過徹底的數(shù)值實(shí)驗(yàn)得到了驗(yàn)證。該研究建立一種新的研究視角,將多層 tr...
2023-09-07 標(biāo)簽:AI向量機(jī)Transformer 1521 0
自然語言處理和人工智能的概念及發(fā)展史 自然語言處理和人工智能的區(qū)別
自然語言處理(Natural Language Processing, NLP)的定義是通過電腦軟件程序?qū)崿F(xiàn)人們?nèi)粘UZ言的機(jī)器自動(dòng)處理。為了幫助計(jì)算機(jī)理...
編輯推薦廠商產(chǎn)品技術(shù)軟件/工具OS/語言教程專題
電機(jī)控制 | DSP | 氮化鎵 | 功率放大器 | ChatGPT | 自動(dòng)駕駛 | TI | 瑞薩電子 |
BLDC | PLC | 碳化硅 | 二極管 | OpenAI | 元宇宙 | 安森美 | ADI |
無刷電機(jī) | FOC | IGBT | 逆變器 | 文心一言 | 5G | 英飛凌 | 羅姆 |
直流電機(jī) | PID | MOSFET | 傳感器 | 人工智能 | 物聯(lián)網(wǎng) | NXP | 賽靈思 |
步進(jìn)電機(jī) | SPWM | 充電樁 | IPM | 機(jī)器視覺 | 無人機(jī) | 三菱電機(jī) | ST |
伺服電機(jī) | SVPWM | 光伏發(fā)電 | UPS | AR | 智能電網(wǎng) | 國(guó)民技術(shù) | Microchip |
Arduino | BeagleBone | 樹莓派 | STM32 | MSP430 | EFM32 | ARM mbed | EDA |
示波器 | LPC | imx8 | PSoC | Altium Designer | Allegro | Mentor | Pads |
OrCAD | Cadence | AutoCAD | 華秋DFM | Keil | MATLAB | MPLAB | Quartus |
C++ | Java | Python | JavaScript | node.js | RISC-V | verilog | Tensorflow |
Android | iOS | linux | RTOS | FreeRTOS | LiteOS | RT-THread | uCOS |
DuerOS | Brillo | Windows11 | HarmonyOS |