→自然言語処理
→Transformer
→ディープラーニング
サブトピック†
GPT-4†
GPT4ALL†
- 「GPT4ALL」は、LLaMAベースで、膨大な対話を含むクリーンなアシスタントデータで学習したチャットAI
GPT一般†
そもそもGPTとは何か†
- GPTの何がすごいか
- データを増やし、モデルが大きくなるほど精度があがる。
- 多様な言語タスクを1つのモデルで解決できる。(それまではタスクごとに最適化したモデルが必要だった)
- Pre-Training & Fine Tuning の威力
- それまでのDLはラベル付き教師データを作るのが大変だった
- ラベル無しデータでできるサブタスクを大量に行い、まず言語を理解させる。そのモデルを利用して本タスクを学習する。
- Pre-Training(100epoc)
- 大量のタスク=次の単語予測をさせる→文法、単語、文脈を学習
- Fine-Tuning(3epoc程度で学習完了)
- 各種タスクごとに最終層だけ取り換える→教師データを使った通常の学習を行う
- 省データ、省計算資源を実現
Bing chat†
Last-modified: 2024-05-16 (木) 10:54:49