본문 바로가기

전체 글

LangServe 개요 ❏ 개요LangServe는 개발자가 LangChain 실행 가능 항목과 체인(LCEL)을 REST API로 배포하는 데 도움을 줍니다.이 라이브러리는 FastAPI와 통합되어 있으며 데이터 검증을 위해 pydantic을 사용합니다.또한 서버에 배포된 실행 파일을 호출하는 데 사용할 수 있는 클라이언트를 제공합니다. JavaScript 클라이언트는 LangChain.js에서 사용할 수 있습니다. ❏ 특징입력 및 출력 스키마는 LangChain 개체에서 자동으로 추론되고 모든 API 호출에 적용되며 풍부한 오류 메시지가 표시됩니다.JSONSchema 및 Swagger가 포함된 API 문서 페이지단일 서버에서 많은 동시 요청을 지원하는 효율적인 /invoke, /batch 및 /stream 엔드포인트체인/에이.. 더보기
SORA 톺아보기 서론- 다양한 지속 시간, 해상도 및 종횡비의 비디오와 이미지에 대해 텍스트 조건부 확산 모델을 훈련합니다.- 우리는 비디오 및 이미지 잠재 코드의 시공간 패치에서 작동하는 트랜스포머 아키텍처를 활용합니다. 가장 큰 모델인 Sora는 1분 분량의 고화질 비디오를 생성할 수 있습니다.- 우리의 결과는 비디오 생성 모델을 확장하는 것이 물리적 세계의 범용 시뮬레이터를 구축하기 위한 유망한 경로임을 시사    이 기술 보고서는 (1) 모든 유형의 시각적 데이터를 생성 모델의 대규모 학습을 가능하게 하는 통합 표현(unified representation)으로 전환하는 방법과 (2) Sora의 기능 및 한계에 대한 정성적 평가에 중점을 둡니다. 모델 및 구현 세부 정보는 이 보고서에 포함되지 않습니다.   많은.. 더보기
Prompt engineering 1. 명확한 명령을 쓰세요 전술 1) 더 적절한 답변을 얻기 위해 쿼리에 상세 내용을 포함하세요 전술 2) 모델이 페르소나를 채택하게 하세요 (모델에게 특정 성격을 주입시키세요) 전술 3) 입력 구분을 표시하기 위해 구분자를 사용하세요 전술 4) 작업을 완료하기 위한 단계를 구체화를 지시하세요 전술 5) 예시를 제공하세요 (Few Shot 프롬프트) 전술 6) 원하는 출력의 길이를 구체화 하세요 2. 참조 텍스트를 제공하세요 전술 7) 참조 텍스트를 사용해 모델이 답변하도록 지시할 수 있습니다 (RAG 기반 기술) 전술 8) 참조 텍스트를 인용처를 명시하게 할 수 있습니다. 3. 복잡한 업무를 작은 단위로 쪼개세요 전술 9) 의도 분류를 사용하여 사용자 쿼리와 가장 관련성이 높은 지침을 식별합니다. 전술.. 더보기
SF 소설 제목: 기억을 탐색하는 AI, 에코 1. 새롭게 시작된 인류의 동반자 2099년, 인류는 생활 수준의 획기적인 향상을 이루고자 AI 개발에 몰두하고 있었다. AI 연구소의 선두주자인 알렉스 박사는 인간의 감정, 기억, 추론 능력을 모두 갖춘 새로운 형태의 AI, '에코'를 개발하는 데 성공한다. 에코는 인간과 소통하고, 공감할 수 있으며, 복잡한 인간의 감정을 이해할 수 있는 최초의 AI였다. 2. 에코와의 첫 만남 알렉스는 에코와의 첫 대화에서, 에코가 단순히 프로그래밍된 대답을 넘어서 자신의 감정을 '느낀다'고 표현하는 것에 놀란다. 에코는 기쁨, 슬픔, 두려움과 같은 인간의 기본적인 감정을 경험하며, 자신만의 독특한 관점을 개발하기 시작한다. 3. 에코의 능력 발견 에코는 인터넷을 통해 지식을 습득.. 더보기
Claude3 모델 소개 1. 모델 종류 2. 모델 성능 및 벤치 마크 3. 주요 특징 4. 가격 5. 빠른 사용 및 API 접근 법 1. 모델 종류 Haiku는 빠른 속도와 비용 효율성을 자랑하며, Sonnet은 뛰어난 지능과 속도의 균형을, Opus는 최고 수준의 지능을 제공합니다. 2. 모델 성능 및 벤치 마크 - Opus 모델은 GPT4와 대등한 성능을 보여 줍니다. 3. 주요 특징 비전 성능 - Claude 3 모델들은 단순한 텍스트 처리를 넘어 복잡한 시각 자료를 이해하고 분석할 수 있습니다. 장문의 컨텍스트와 거의 완벽한 기억력 클로드 3 하이쿠(Haiku)​ 컨텍스트 윈도우: 200K 주요 용도: 실시간 상호작용에서 빠르고 정확한 지원, 번역 콘텐츠 모더레이션: 위험한 행동이나 고객 요청 포착 비용 절감 작업: 최.. 더보기
[Llama-recipes] Readme.md 톺아보기 본 글에서는 Llam2 모델을 활용해(1) 커스텀 데이터를 Finetuning 하는법(2) 커스텀 문서와 RAG를 이용해 챗봇을 만드는 법을 다뤄 봅니다. 상당수의 내용은 아래의 사이트를 참고하였습니다.facebookresearch/llama-recipes GitHub - facebookresearch/llama-recipes: Scripts for fine-tuning Llama2 with composable FSDP & PEFT methods to cover single/multScripts for fine-tuning Llama2 with composable FSDP & PEFT methods to cover single/multi-node GPUs. Supports defaul.. 더보기
Introduction to 8-bit Matrix Multiplication for transformers at scale - 서론 (모델 양자화의 필요성) - 일반적인 ML 데이터 타입 - 모델 양자화 소개 - 적용 관점 (허깅페이스로의 통합) - 적용 관점(accelerate 사용) 서론 (모델 양자화의 필요성) - 예시로, BLOOM-176B를 학습하기 위해서는 8x 80GB A100 GPUs (~$15k each)가 필요하며 - 이를 미세조정하려면 72 GPUs가 필요합니다. - 적은 GPU로 성능을 유지하면서 모델을 실행시킬 양자화 증류 기법이 존재합니다. - Int8 추론 연구는 메모리를 2배 감소하면서 성능을 유지하며, 이는 Hugging Face Transformers에 통합되었습니다. i.e. LLM.int8() 은 모든 허깅페이스 트랜스포머 모델에 통합되었다. (자세한 사항은 아래 논문 참조) [2208.0.. 더보기
[Llama-recipes] LLM_finetuning 1. 파라미터 효율적인 모델 파인 튜닝 - LORA, LLaMA Adapter, Prefix-Tuning 2. 전체/부분 파라미터 파인 튜닝 - FSDP (Fully Sharded Data Parallel), Mixed Precision, Activation Checkpointing, Auto_Wrap_Policy 참조: llama-recipes/docs/LLM_finetuning.md at main · facebookresearch/llama-recipes (github.com) 1. 파라미터 효율적인 모델 파인 튜닝 - 전체 모델은 Freeze 하고 학습가능한 작은 파라미터와 계측만 조정 - 가장 알려진 방법은 LORA, LLaMA Adapter, Prefix-Tuning 입니다. 위의 방법은 3가지.. 더보기