0 ‐ Terminaro - decxjo/IK-deepseek-esperanto- GitHub Wiki

Pedagogia kritika paĝo Koncepto Ĉina (Pinyin) Ideogram-Analizo AK Propono Akronimo Priskribo
1 Tokenization 分词 (fēncī) 分 (dividi) + 词 (vorto) Vort-Ero-igo Divido en teksterojn
2 AI 人工智能 (réngōng zhìnéng) 人工 (artefarita) + 智能 (intelekto) Analiza Komprenilo AKO Ĝenerala termino de la kampo
3 LLM 大语言模型 (dà yǔyán móxíng) 大 (granda) + 语言 (lingvo) + 模型 (modelo) Vort-Vica AKO VAKO Modelo por analizi tekstvicojn
4 Chat bot 聊天机器人 (liáotiān jīqìrén) 聊天 (babili) + 机器 (maŝino) + 人 (ulo) Diskut-AK-ej-o AKEJO Interfaco por diskuti kun AKO
5 Fine tuning supervisor 微调监督 (wēitiáo jiāndū) 微 (malgranda) + 调 (ĝustigi) + 监督 (supervidi) Homa Ekzempla Ĝustigo HEĜO Historie unua klopodo plibonigi rezultojn de AK
6 Model instruct 模型指令 (móxíng zhǐlìng) 模型 (modelo) + 指令 (instrukcio) Ŝablona Analizo de Demandoj ŜADO Plia efiko en interago kun AKO
7 Fine tuning by preference 偏好微调 (piānhào wēitiáo) 偏好 (prefero) + 微调 (ĝustigi) Prefera Analiza Konfirmo PAKO Plia ŝtupo en progreso per agnosko de homa prefero
8 Learning 学习 (xuéxí) 学 (lerni) + 习 (praktiki) Lernado Ĝenerala termino por la fundamento de AK
9 Direct preference optimisation 直接偏好优化 (zhíjiē piānhào yōuhuà) 直接 (rekta) + 偏好 (prefero) + 优化 (optimumigo) Laŭ-Prefer-Ekzempl-Ara Plibonigo PEPO Konstruo de mem-juĝo ŝablono danke al homa gratulo
10 Fine tuning by reasoning 推理微调 (tuīlǐ wēitiáo) 推理 (rezoni) + 微调 (ĝustigi) Rezonado en Ĝustigo REĜO Ĝustigo submetita al rezonadaj skemoj
11 Reinforcement Learning with Verifiable Rewards 可验证奖励强化学习 (kě yànzhèng jiǎnglì qiánghuà xuéxí) 可验证 (verigebla) + 奖励 (gratulo) + 强化 (fortigi) + 学习 (lernado) Gratuliĝo Dank Sciencaj Rezultoj, en Vero GEVO Celo estas objektiva rezulto (pli ol prefero)
12 Group relation policy optimisation 群体关系策略优化 (qúntǐ guānxì cèlüè yōuhuà) 群体 (grupo) + 关系 (rilato) + 策略 (strategio) + 优化 (optimumigo) Mem-Spertiĝo en Rezonado SERO Plibonigo de rezonad-branĉaro per komparo
13 Deep learning 深度学习 (shēndù xuéxí) 深度 (profunda) + 学习 (lernado) Plurtavola AKa Lernado PALO Strukturo de neŭrona reto kun sinsekvaj tavoloj
14 Transformer 变压器 (biànyāqì) 变 (ŝanĝi) + 压 (premo) + 器 (ilo) Formo-Ŝanĝilo Modelo por analizi rilatojn en tekstoj
15 Backpropagation 反向传播 (fǎnxiàng chuánbō) 反 (inversa) + 传播 (disvastigo) Erar-Retroĝustigo Meĥanismo por ĝustigi parametrojn per inversaj erar-signaloj
16 Attention 注意力 (zhùyìlì) 注 (fokuso) + 意 (intenco) Atent-Meĥanismo Trovas gravajn vortojn en frazo
17 Embedding 嵌入 (qiànrù) 嵌 (enigi) + 入 (eniri) Enig-Vektoroj Reprezentas vortojn kiel nombrojn
18 Self-attention 自注意力 (zìzhùyìlì) 自 (mem) + 注 (fokuso) + 力 (forto) Mem-Atento Analizas rilatojn en frazo
19 Layer Normalization 层标准化 (céng biāozhǔnhuà) 层 (tavolo) + 标准 (normo) Tavola Normigo Stabiligas lernprocezon
20 Loss Function 损失函数 (sǔnshī hánshù) 损失 (perdo) + 函数 (funkcio) Perdo-Funkcio Kalkulas erarogradon
21 Gradient Descent 梯度下降 (tīdù xiàjiàng) 梯度 (gradiento) + 下降 (malsupreniri) Gradiento-Malsupreniro Optimumiga algoritmo
22 Activation Function 激活函数 (jīhuó hánshù) 激活 (aktivigi) + 函数 (funkcio) Aktiviga Funkcio Decidas neŭran ekigon
23 Batch Normalization 批量归一化 (pīliàng guīyīhuà) 批量 (amase) + 归一 (unuecigi) Amasa Normigo Rapidigas trejnadon
24 Dropout 丢弃 (diūqì) 丢 (forĵeti) + 弃 (forlasi) Forĵet-Metodo Preventas troadaptiĝon
25 Learning Rate 学习率 (xuéxí lǜ) 学习 (lerni) + 率 (procento) Lern-Rapido Kontrolas paŝgrandon de optimumigo
26 Epoch 轮次 (lúncì) 轮 (rado) + 次 (fojo) Epoko Unu plena trakuro de la trejna datumaro
27 Bias 偏置 (piānzhì) 偏 (deviigi) + 置 (meti) Dekliniĝo Konstantaldono al neŭra kalkulo