Szkolenie 1-dniowe
Fine-tuning modeli językowych
Szkolenie pozwoli Ci opanować zaawansowane metody dostrajania modeli językowych, takich jak SmolLM i Mistral. Nauczysz się przygotowywać dane treningowe, oceniać jakość modeli oraz korzystać z nowoczesnych narzędzi i bibliotek, w tym Axolotl, Transformers i API OpenAI.
Terminy i cena szkolenia
Sprawdź najbliższe terminy szkolenia i wybierz tryb nauki, który najlepiej odpowiada Twoim preferencjom.
Cena: 1 350 zł netto + 23% VAT (1 660 zł brutto/os)
Tryb wieczorowy
Najbliższy termin: 8.04.2025 r.2 wieczory po 4 godziny (17:30-21:30).
Wtorek i czwartek.Tryb weekendowy
Najbliższy termin: 12.04.2025 r.1 dzień po 8 godzin (9:00-17:00).
Sobota.
Cele szkolenia
Wprowadzenie do trenowania istniejących modeli językowych na przykładzie SmolLM i Mistral.
Zgłębienie technik przygotowywania danych treningowych.
Dla kogo jest to szkolenie?
Dla programistów z doświadczeniem w użyciu modeli językowych.
Wymagania
Znajomość Pythona i umiejętność korzystania z dużych modeli językowych.
Dostęp do API OpenAI.
Dostęp do środowiska Google Colab z GPU (wersja Pro).
Dostęp do repozytorium HuggingFace.
Dlaczego warto wziąć udział w szkoleniu?
Szkolenie jest prowadzone przez osoby na co dzień zajmujące się inżynierią danych oraz uczeniem maszynowym.
Program jest ciągle uaktualniany ze względu na szybki rozwój rozwiązań, których dotyczy szkolenie.
Program szkolenia
1. Wprowadzenie
- ✔️ Co to jest fine-tuning
- ✔️ Kiedy fine-tuning, a kiedy in-context learning?
2. Omówienie sposobów dotrenowywania modeli językowych
- ✔️ Fine-tuning
- ✔️ Low Rank Adaptation (LoRA)
- ✔️ QLoRA
3. Fine-tuning modeli językowych open-source
- ✔️ Przygotowanie danych treningowych
- ✔️ Omówienie parametrów konfiguracyjnych biblioteki Axolotl
- ✔️ Użycie biblioteki Axolotl do trenowania modelu
- ✔️ Użycie biblioteki Transformers do trenowania modelu
4. Fine-tuning modeli OpenAI
- ✔️ Przygotowanie danych treningowych
- ✔️ Użycie API OpenAI do trenowania modelu
- ✔️ Dostęp do otrzymanego modelu przez API OpenAI
5. Ocena jakości otrzymanego modelu
- ✔️ Testowanie otrzymanego modelu i metryki używane do oceny jakości modelu
- ✔️ Użycie dużych modeli językowych do automatycznej oceny wytrenowanego modelu
Autor szkolenia - Bartosz Mikulski
W pracy zawodowej zajmuje się budowaniem zautomatyzowanej platformy wdrażania modeli uczenia maszynowego na produkcji. Specjalizuje się w inżynierii danych z użyciem AWS. Od 2017 roku pisze bloga o inżynierii danych, uczeniu maszynowym i sztucznej inteligencji. Napisał jeden z rozdziałów książki '97 Things Every Data Engineer Should Know'. Występuje na konferencjach i meetupach w roli prelegenta gdzie dzieli się swoim doświadczeniem ze społecznością programistów. Prowadzi szkolenia komercyjne.
Kursy PRO, na których prowadzi zajęcia:
