PROMPT - daehyun99/Using-AI-Tools-Back GitHub Wiki

ν”„λ‘¬ν”„νŠΈ λ²ˆμ—­ μ„±λŠ₯ 평가

μ •λŸ‰μ  평가

  • None

정성적 평가

  • μ‚¬μš©μž UseCase에 κΈ°λ°˜ν•œ 평가
    • UseCase 확보방법 및 κ³„νš ν•„μš”
      • 방법1
        • μ‚¬μš©μž λͺ¨μ§‘을 μœ„ν•œ 홍보방법 및 κ³„νš ν•„μš”
      • 방법2
    • UseCase 평가방법 및 κ³„νš ν•„μš”

버전 관리

v0.0.1

v0.0.2

원문(λ²ˆμ—­ μ„±λŠ₯ 평가λ₯Ό μœ„ν•œ μƒ˜ν”Œ) 이전 버전 λ²ˆμ—­ κ²°κ³Ό ν˜„μž¬ 버전 λ²ˆμ—­ κ²°κ³Ό
4 Why Self-Attention 자기 μ£Όμ˜κ°€ ν•„μš”ν•œ 이유 4 μ™œ Self-Attention 인가
3.2.3 Applications of Attention in our Model 3.2.3 λͺ¨λΈμ—μ„œ 주의의 적용 3.2.3 Attention의 우리 λͺ¨λΈμ—μ„œμ˜ μ‘μš©
3.4 Embeddings and Softmax 3.4 μž„λ² λ”© 및 μ†Œν”„νŠΈλ§₯슀 3.4 μž„λ² λ”©κ³Ό Softmax

κ°œμ„ μ‚¬ν•­

  • 가독성 ν–₯상을 μœ„ν•œ 고유λͺ…사λ₯Ό 원문 ν˜•νƒœλ‘œ μ œκ³΅ν•¨.
  • λ²ˆμ—­ 일관성 확보λ₯Ό μœ„ν•œ 퓨샷 ν”„λ‘¬ν”„νŒ… 적용.

평가

  • λ²ˆμ—­ν•  단어와 λ²ˆμ—­ν•˜μ§€ μ•Šμ„ 단어λ₯Ό λͺ…ν™•νžˆ ꡬ뢄할 수 μžˆλŠ” 기쀀이 ν•„μš”ν•¨.
  • λ²ˆμ—­ 일관성이 아직 μΆ©λΆ„νžˆ ν™•λ³΄λ˜μ§€ μ•ŠμŒ.

Reference