1 |
Tokenization |
分词 (fēncī) |
分 (dividi) + 词 (vorto) |
Vort-Ero-igo |
|
Divido en teksterojn |
2 |
AI |
人工智能 (réngōng zhìnéng) |
人工 (artefarita) + 智能 (intelekto) |
Analiza Komprenilo |
AKO |
Ĝenerala termino de la kampo |
3 |
LLM |
大语言模型 (dà yǔyán móxíng) |
大 (granda) + 语言 (lingvo) + 模型 (modelo) |
Vort-Vica AKO |
VAKO |
Modelo por analizi tekstvicojn |
4 |
Chat bot |
聊天机器人 (liáotiān jīqìrén) |
聊天 (babili) + 机器 (maŝino) + 人 (ulo) |
Diskut-AK-ej-o |
AKEJO |
Interfaco por diskuti kun AKO |
5 |
Fine tuning supervisor |
微调监督 (wēitiáo jiāndū) |
微 (malgranda) + 调 (ĝustigi) + 监督 (supervidi) |
Homa Ekzempla Ĝustigo |
HEĜO |
Historie unua klopodo plibonigi rezultojn de AK |
6 |
Model instruct |
模型指令 (móxíng zhǐlìng) |
模型 (modelo) + 指令 (instrukcio) |
Ŝablona Analizo de Demandoj |
ŜADO |
Plia efiko en interago kun AKO |
7 |
Fine tuning by preference |
偏好微调 (piānhào wēitiáo) |
偏好 (prefero) + 微调 (ĝustigi) |
Prefera Analiza Konfirmo |
PAKO |
Plia ŝtupo en progreso per agnosko de homa prefero |
8 |
Learning |
学习 (xuéxí) |
学 (lerni) + 习 (praktiki) |
Lernado |
|
Ĝenerala termino por la fundamento de AK |
9 |
Direct preference optimisation |
直接偏好优化 (zhíjiē piānhào yōuhuà) |
直接 (rekta) + 偏好 (prefero) + 优化 (optimumigo) |
Laŭ-Prefer-Ekzempl-Ara Plibonigo |
PEPO |
Konstruo de mem-juĝo ŝablono danke al homa gratulo |
10 |
Fine tuning by reasoning |
推理微调 (tuīlǐ wēitiáo) |
推理 (rezoni) + 微调 (ĝustigi) |
Rezonado en Ĝustigo |
REĜO |
Ĝustigo submetita al rezonadaj skemoj |
11 |
Reinforcement Learning with Verifiable Rewards |
可验证奖励强化学习 (kě yànzhèng jiǎnglì qiánghuà xuéxí) |
可验证 (verigebla) + 奖励 (gratulo) + 强化 (fortigi) + 学习 (lernado) |
Gratuliĝo Dank Sciencaj Rezultoj, en Vero |
GEVO |
Celo estas objektiva rezulto (pli ol prefero) |
12 |
Group relation policy optimisation |
群体关系策略优化 (qúntǐ guānxì cèlüè yōuhuà) |
群体 (grupo) + 关系 (rilato) + 策略 (strategio) + 优化 (optimumigo) |
Mem-Spertiĝo en Rezonado |
SERO |
Plibonigo de rezonad-branĉaro per komparo |
13 |
Deep learning |
深度学习 (shēndù xuéxí) |
深度 (profunda) + 学习 (lernado) |
Plurtavola AKa Lernado |
PALO |
Strukturo de neŭrona reto kun sinsekvaj tavoloj |
14 |
Transformer |
变压器 (biànyāqì) |
变 (ŝanĝi) + 压 (premo) + 器 (ilo) |
Formo-Ŝanĝilo |
|
Modelo por analizi rilatojn en tekstoj |
15 |
Backpropagation |
反向传播 (fǎnxiàng chuánbō) |
反 (inversa) + 传播 (disvastigo) |
Erar-Retroĝustigo |
|
Meĥanismo por ĝustigi parametrojn per inversaj erar-signaloj |
16 |
Attention |
注意力 (zhùyìlì) |
注 (fokuso) + 意 (intenco) |
Atent-Meĥanismo |
|
Trovas gravajn vortojn en frazo |
17 |
Embedding |
嵌入 (qiànrù) |
嵌 (enigi) + 入 (eniri) |
Enig-Vektoroj |
|
Reprezentas vortojn kiel nombrojn |
18 |
Self-attention |
自注意力 (zìzhùyìlì) |
自 (mem) + 注 (fokuso) + 力 (forto) |
Mem-Atento |
|
Analizas rilatojn en frazo |
19 |
Layer Normalization |
层标准化 (céng biāozhǔnhuà) |
层 (tavolo) + 标准 (normo) |
Tavola Normigo |
|
Stabiligas lernprocezon |
20 |
Loss Function |
损失函数 (sǔnshī hánshù) |
损失 (perdo) + 函数 (funkcio) |
Perdo-Funkcio |
|
Kalkulas erarogradon |
21 |
Gradient Descent |
梯度下降 (tīdù xiàjiàng) |
梯度 (gradiento) + 下降 (malsupreniri) |
Gradiento-Malsupreniro |
|
Optimumiga algoritmo |
22 |
Activation Function |
激活函数 (jīhuó hánshù) |
激活 (aktivigi) + 函数 (funkcio) |
Aktiviga Funkcio |
|
Decidas neŭran ekigon |
23 |
Batch Normalization |
批量归一化 (pīliàng guīyīhuà) |
批量 (amase) + 归一 (unuecigi) |
Amasa Normigo |
|
Rapidigas trejnadon |
24 |
Dropout |
丢弃 (diūqì) |
丢 (forĵeti) + 弃 (forlasi) |
Forĵet-Metodo |
|
Preventas troadaptiĝon |
25 |
Learning Rate |
学习率 (xuéxí lǜ) |
学习 (lerni) + 率 (procento) |
Lern-Rapido |
|
Kontrolas paŝgrandon de optimumigo |
26 |
Epoch |
轮次 (lúncì) |
轮 (rado) + 次 (fojo) |
Epoko |
|
Unu plena trakuro de la trejna datumaro |
27 |
Bias |
偏置 (piānzhì) |
偏 (deviigi) + 置 (meti) |
Dekliniĝo |
|
Konstantaldono al neŭra kalkulo |