XGBoost – zaawansowane techniki gradient boosting

Opis

Zaawansowane szkolenie poświęcone algorytmowi XGBoost i jego zastosowaniom w rozwiązywaniu złożonych problemów uczenia maszynowego. Program łączy teoretyczne podstawy algorytmów gradient boosting z praktycznymi aspektami ich implementacji i optymalizacji. Uczestnicy poznają zaawansowane techniki dostrajania modeli, uczą się interpretować ich działanie oraz efektywnie wykorzystywać w różnorodnych scenariuszach biznesowych. Szkolenie kładzie szczególny nacisk na praktyczne warsztaty i rzeczywiste przypadki użycia.

Profil uczestnika

  • Data Scientists pracujący nad modelami predykcyjnymi
  • ML Engineers optymalizujący modele
  • Analitycy danych rozwijający zaawansowane modele
  • Specjaliści ds. uczenia maszynowego
  • Praktycy ML szukający pogłębienia wiedzy o XGBoost
  • Research Scientists w dziedzinie ML
  • Inżynierowie ds. optymalizacji modeli

Agenda

  1. Fundamenty XGBoost
    • Teoria gradient boosting
    • Architektura algorytmu XGBoost
    • Porównanie z innymi metodami ensemble
    • Matematyczne podstawy optymalizacji
  2. Zaawansowana implementacja
    • Dostrajanie hiperparametrów
    • Techniki regularyzacji
    • Obsługa brakujących danych
    • Przetwarzanie cech kategorycznych
  3. Optymalizacja wydajności
    • Strategie treningu na dużych zbiorach
    • Distributed training
    • Zarządzanie pamięcią
    • Optymalizacja prędkości
  4. Praktyczne zastosowania
    • Interpretacja modeli XGBoost
    • Analiza ważności cech
    • Wizualizacja drzew decyzyjnych
    • Studia przypadków

Korzyści

Uczestnik rozwinie głębokie zrozumienie działania i możliwości algorytmu XGBoost w kontekście różnorodnych zastosowań biznesowych. Zdobędzie praktyczne umiejętności w zakresie implementacji i optymalizacji modeli gradient boosting. Nauczy się efektywnie dostrajać hiperparametry modeli dla osiągnięcia optymalnej wydajności. Pozna zaawansowane techniki interpretacji i wizualizacji działania modeli XGBoost. Rozwinie zdolność skutecznego wykorzystania XGBoost w rozwiązywaniu rzeczywistych problemów biznesowych. Zyska umiejętność pracy z dużymi zbiorami danych i optymalizacji wydajności modeli.

Wymagane przygotowanie uczestników

  • Praktyczna znajomość uczenia maszynowego
  • Doświadczenie w programowaniu w Python
  • Podstawowa wiedza o algorytmach drzew decyzyjnych
  • Znajomość podstaw statystyki

Zagadnienia

  • Teoria gradient boosting
  • Optymalizacja hiperparametrów
  • Regularyzacja modeli
  • Przetwarzanie danych
  • Distributed training
  • Interpretacja modeli
  • Ważność cech
  • Wizualizacja wyników
  • Zarządzanie pamięcią
  • Optymalizacja wydajności
  • Studia przypadków
  • Najlepsze praktyki

Poznaj naszą firmę

INFORMACJA CENOWA:
od 2450 zł netto za jedną osobę

CZAS TRWANIA (dni): 2

KOD SZKOLENIA: IT-AI-122

?
?
Zapoznałem/łam się i akceptuję politykę prywatności. *