Mistral 7B
https://mistral.ai/news/announcing-mistral-7b/
파리에 본사를 두고 Google의 DeepMind와 Meta 출신이 공동 창립한 Mistral AI는 최초의 대규모 언어 모델을 발표했다.
7억 개의 매개변수 모델을 갖춘 Mistral AI 첫 번째 모드는 라마 2 모든 테스트에서 13B를 기록했으며 여러 지표에서 Llama 1 34B를 능가한다고 한다..
https://huggingface.co/HuggingFaceH4/zephyr-7b-beta
Mistral을 finetune 시킨 좋은 모델 예시 (허깅페이스)
아직 한국어 연구는 ko-leaderboard에 보이지 않는다. mistral model이 아직 한국어 튜닝은 안된 듯 하다.
llm-leaderboard와 다르게 ko-learderboard에는 7b, 70b 모델이 별로 없는 이유..
LLM의 hallucination 문제 detecting하는 방법 연구들
https://arxiv.org/abs/2309.03883
https://arxiv.org/pdf/2306.03341
LLaMA-7B를 사용한 연구가 많다. 크기가 가장 합리적이라 그런 듯하다.
OpenAI Dev day
https://www.youtube.com/watch?v=U9mJuUkhUzk
나온다... 엄청난거 나온다.............ㅎㅎ
OpenAI 에서 첫 개발자 컨퍼런스가 3일전 열렸다.
키노트 요약은 천천히 시간내서 해야겠다
'TIL(Today I Learned)' 카테고리의 다른 글
TIL 231124 - 잘 명령하기: 프롬프트 엔지니어링, LoRA: 비용 줄이기 (0) | 2023.11.24 |
---|---|
TIL 231123 OpenAI 세상 구경하기 (1) | 2023.11.23 |
TIL - 231107 한국어 오픈소스 언어모델 LLM 탐구하기 (1) | 2023.11.07 |
TIL - 231031 (0) | 2023.10.31 |
TIL - 231027 (0) | 2023.10.27 |