본문 바로가기
+ 도서 오류 정보

[정오표] LLM을 활용한 실전 AI 애플리케이션 개발

by 책만 2024. 7. 26.

★ 도서 내용에 관한 질문은 깃허브 이슈 페이지에 남겨주세요.

 

# 전자책 ver. 1.0 오류사항

* 이전 1쇄, 2쇄를 구입하신 독자분들도 확인하시기 바랍니다.

 

p63. 그림 2.2 내 절 번호 수정

2.1절 2.2절 / 2.2절 2.3절 / 2.3절 2.4절 / 2.4절 2.5절 / 2.5절 2.6절

# 2024년 8월 12일 종이책 2쇄 정오사항 

* 이전 1쇄를 구입하신 독자분들도 확인하시기 바랍니다.

 

p91. 예제 2.14 코드부 수정

16행: (self.self_attn(x, x, x))  self.self_attn(x, x, x, is_causal=is_causal))

19, 20행: encoder_output, is_causal=is_causal)) encoder_output))

 

p216. 예제 6.5 아래 본문 3째 줄

150,000TPM(Transactions Per Minute)

150,000TPM(Tokens Per Minute)

 

p222-223. 예제 6.11 'LoRA 어댑터 결합 및 허깅페이스 허브 업로드' 코드부 변수명 수정

5행: start_model base_model

16, 24, 25행: new_model finetuned_model

 

# 2024년 7월 25일 종이책 1쇄 정오사항

p297. 코드부 2째 줄 -> llama-index-callbacks-wandb==0.1.2 코드부 추가

"nemoguardrails[openai]= =0.8.0" openai= =1.25.1 chromadb= =0.5.0 wandb= =0.16.6 -qqq

"nemoguardrails[openai]==0.8.0" openai==1.25.1 chromadb==0.5.0 wandb==0.16.6 

llama-index-callbacks-wandb==0.1.2 -qqq

 

 

p324. 예제 9.16 코드부 6째 줄 아래 코드 2줄 추가

query = "대한민국의 수도는 어디야?"

temperature = 0.2
model_name = "gpt-3.5-turbo"

 

 

p325. 예제 9.16 코드부 단락 코드 변경

response = client.chat.completions.create(model="gpt-3.5-turbo", ➊

  messages=[{"role": "system", "content": system_message},{"role": "user", "content": query}],
  temperature=0.7

)

response = client.chat.completions.create(model=model_name

  messages=[{"role": "system", "content": system_message},{"role": "user", "content": query}],

  temperature=temperature

)

 

 

p325. 예제 9.17 코드부 3~5째 줄

from llama_index import Document, VectorStoreIndex, ServiceContext
from llama_index.llms import OpenAI
from llama_index import set_global_handler

from llama_index.core import Document, VectorStoreIndex, ServiceContext
from llama_index.llms.openai import OpenAI
from llama_index.core import set_global_handler

 

 

p326. 예제 9.17 코드부 첫 째줄 

wandb_callback = llama_index.global_handler ➊

wandb_callback = llama_index.core.global_handler ➊

 

  

 

 

 

댓글