목록미세 조정 (3)
반업주부의 일상 배움사
> English Summary [ 요약 ] 이 동영상에서는 알파카 모델이 오픈 소스가 아닌 것에 대응하여 데이터브릭스에서 새롭게 미세 조정한 돌리에 대해 설명합니다. 돌리는 알파카 데이터 세트에 대해 GPT-J 6B라는 60억 개의 매개변수 모델을 학습시켜 만들어졌습니다. 이 모델은 양 돌리의 이름을 따서 명명되었습니다. 데이터브릭스에서 가중치를 공개하지는 않았지만 요청할 수 있습니다. 그런 다음 발표자는 알파카 데이터 세트의 클린 버전에서 유사한 모델을 훈련하고 미세 조정한 자신의 경험을 설명합니다. 원본 데이터 집합의 일부 예제는 부정확한 부분이 있었는데, GitHub의 담당자가 이를 수정했습니다. 동영상은 연사가 돌리와 같은 모델의 잠재적 용도에 대해 논의하는 것으로 끝납니다. 모델 미세 조정에 ..
> English Summary > English Full Text [ 요약 ] 자주 사용하는 두 가지 소프트웨어인 ChatGPT와 Blender를 통합하는 방법에 대해 설명합니다. Blender 아티스트가 일반적으로 사용하지 않는 Blender의 스크립팅 탭에 중점을 둡니다. 스크립팅 탭을 사용하면 워크플로를 자동화하거나 씬 또는 모델에서 미세 조정 옵션을 제공하는 데 사용할 수 있는 커스텀 Python 스크립트를 가져오거나 작성할 수 있습니다. 이 문서에서는 유효한 스크립트를 제공하는 검증된 프롬프트의 예시를 제공하며 작성자는 그 자리에서 몇 가지 아이디어를 즉석에서 구현했습니다. 원하는 출력은 간단한 구체 고리이며, 저자는 프롬프트를 사용하여 짧은 스크립트를 실행합니다. 여러분이 스크립팅 탭을 사용..
> English Summary > English Full Text [ 요약 ] 로컬 컴퓨터에서 강력한 대규모 언어 모델인 LLaMA와 알파카 모델을 실행하는 방법을 설명합니다. 이 모델들은 충분히 모든 쿼리에 응답할 수 있고, 설치 및 활용 방법에 대한 단계별 지침을 제공합니다. 이 모델들은 ChatGPT에 비해 작은 매개변수 수를 가지지만, 다양한 벤치마크에서 성능이 우수한 것으로 알려져 있습니다. 언어 모델은 단어나 문자의 확률 분포를 예측하는 모델로, ChatGPT도 이와 같은 방식으로 작동합니다. 이 비디오를 보고 로컬 컴퓨터에서 이러한 모델을 실행해 보시기를 권합니다. 페이스북 AI는 쿼리를 기반으로 가장 적절한 텍스트를 생성하기 위해 7가지 모델을 대규모 텍스트 코퍼스에서 훈련했습니다. 모델..