Szkolimy.
Mentorujemy.
Wysyłamy do pracy.
Nie jesteśmy kolejnym bootcampem. Uczymy konkretnych umiejętności wymaganych na rynku — i nie kończymy, dopóki nasz kursant nie jest gotowy na pierwszą lub kolejną rolę w IT.
Uczciwe szkolenia.
Realne efekty.
Jesteśmy grupą aktywnych zawodowo inżynierów i specjalistów IT, którzy postanowili dzielić się wiedzą w sposób uczciwy i skuteczny. Nasz cel jest prosty: wyszkolić Cię tak, żebyś dostał pracę — albo awansował na wyższy poziom. Nie przedłużamy kursu bez potrzeby. Nie sprzedajemy wiedzy na raty. Idziesz z nami do momentu, w którym jesteś gotowy.
Waldemar Pietrzak
Głównym pomysłodawcą oraz patronem merytorycznym wszystkich kursów jest Waldemar Pietrzak — doświadczony deweloper z wieloletnim stażem w branży technologicznej, który przeszedł pełną ścieżkę od programisty po lidera i architekta rozwiązań. Dziś skupia się na rozwijaniu i zarządzaniu firmą, dbając o to, by każdy kurs odzwierciedlał realne wymagania rynku pracy — nie akademicką teorię.
Nasze kursy
Kurs DevOps
Od Linuxa po Kubernetes. Pipeline’y CI/CD, chmura, Terraform i monitoring. Praca z realnymi narzędziami produkcyjnymi.
AI w domenie finansowej
Python, modele wyceny, algorytmiczny trading i systemy agentowe LLM. Dla programistów wchodzących w świat quantów.
Kurs Java
Od podstaw języka po systemy rozproszone w Spring Boot. Kod produkcyjny, skalowalność i architektura mikroserwisów.
Kurs AI i Machine Learning
Weekendowe wykłady grupowe. Kurs A: Data Engineering for ML. Kurs B: Classical ML & Deep Learning.
Kurs Data Engineer
Spark, Databricks, Airflow, Kafka i GCP w jednym kursie. Dla tych, którzy chcą budować solidne pipeline’y danych.
Nie jesteśmy bootcampem.
Bootcampy uczą przez miesiące i wystawiają certyfikat. My robimy coś innego. Każdy kursant dostaje indywidualną opiekę, stały kontakt z mentorem, feedback po każdej lekcji i materiały dopasowane do jego poziomu. Możesz zrezygnować w każdym momencie — naszym jedynym celem jest Twój realny rozwój i zatrudnienie.
Indywidualne podejście
Każdy kursant to osobna historia. Dostosowujemy tempo i zakres do Twoich potrzeb i aktualnego poziomu.
Stały kontakt z mentorem
Piszesz, pytasz, dyskutujesz — jesteśmy dostępni między lekcjami, nie tylko podczas nich.
Feedback i materiały
Po każdej lekcji dostaniesz konstruktywną informację zwrotną i materiały do powtórki.
Elastyczne rozliczenie
Płacisz za bloki 4 lekcji. Rezygnacja możliwa w każdej chwili — bez żadnych konsekwencji.
Znajdź nas na Instagramie
Obserwuj nasze profile — materiały, wskazówki i aktualności kursów.
Pisz w sprawie DevOps, Javy, AI Finance i AI oraz ML — tu umawiamy kursy i odpowiadamy na pytania.
Profil założyciela i głowy firmy — Waldemara Pietrzaka. Wiedza, perspektywa lidera i kulisy branży IT.
Profil dedykowany danym, inżynierii i machine learningowi.
DevOps – od terminala
do Kubernetes
Praktyczna ścieżka dla inżynierów, którzy chcą budować, automatyzować i utrzymywać nowoczesną infrastrukturę.
Kurs jest dla Ciebie, jeśli…
…chcesz wejść w świat DevOps od zera albo usystematyzować swoją wiedzę. Przejdziesz przez wszystkie warstwy — od Linuxa, przez automatyzację i CI/CD, chmurę, aż po Kubernetes. Każda lekcja to praktyka na realnych narzędziach używanych w produkcyjnych środowiskach.
Zakres kursu
Moduł 1 — Linux i administracja systemami
+
- Podstawy systemów Unix/Linux i architektury systemu
- Praca w terminalu (CLI), edycja plików, zarządzanie logami
- Zarządzanie procesami, usługami i uprawnieniami
- Konfiguracja sieci, dysków, backupów i bezpieczeństwa
- Automatyzacja zadań przy użyciu Bash
Moduł 2 — Git i podstawy wytwarzania oprogramowania
+
- Poprawne korzystanie z Git
- Workflow pracy zespołowej: branching, pull requesty, code review
- Podstawy procesu wytwarzania i wdrażania aplikacji
Moduł 3 — CI/CD i automatyzacja
+
- Budowanie pipeline’ów CI/CD
- Automatyczne testy w pipeline
- Deployment aplikacji
- Automatyzacja procesów operacyjnych i developerskich
Moduł 4 — Chmura i Infrastructure as Code
+
- Podstawy chmury (AWS lub GCP)
- Zarządzanie infrastrukturą w chmurze
- Terraform jako Infrastructure as Code
- Tworzenie modułów i automatyzacja provisioningu infrastruktury
Moduł 5 — Kontenery i Kubernetes
+
- Konteneryzacja aplikacji z Dockerem
- Architektura mikroserwisowa
- Kubernetes — wdrażanie aplikacji i zarządzanie klastrami
Moduł 6 — Monitoring i Observability
+
- Centralizacja i analiza logów
- Monitoring aplikacji i infrastruktury
- Alerting i podstawy observability
Gotowy, żeby zacząć?
Napisz do nas na Instagramie — odpiszemy i ustalimy szczegóły.
AI w domenie finansowej
Python, modele wyceny, algorytmiczny trading i systemy agentowe LLM — dla programistów wchodzących w świat finansów i quantów.
Programiści, którzy chcą wejść w finanse
Ten kurs łączy inżynierię oprogramowania z finansami. Nauczysz się pisać czysty kod produkcyjny w Pythonie, budować aplikacje z danymi na żywo, implementować modele wyceny i ryzyka, a także tworzyć autonomiczne systemy agentowe oparte na LLM. Kurs nie wymaga wcześniejszego doświadczenia w finansach.
Zakres kursu
Blok 1 — Programowanie
+
- Python do poziomu mid developer
- Biblioteki: scipy, numpy, pandas, matplotlib, quantlib
- Architektura mikroserwisów (bottle, tornado, flask)
- Pisanie czystego kodu produkcyjnego i testowanie (jednostkowe, integracyjne)
- TypeScript do poziomu junior-mid (React)
- Budowa widoków aplikacji webowych prezentujących live data (np. price tickers)
- Message brokers: RabbitMQ
- Wstęp do monitorowania systemów i infrastruktury (Grafana, Geneos)
Blok 2 — Finanse
+
- Objaśnienie najczęściej występujących typów kontraktów finansowych
- Implementacja modeli wyceny: BlackScholes, Monte Carlo, DCF, DDF, Binomial, Yield Curve
- Wstęp do optymalizacji portfela: Markowitz, Monte Carlo, Max Sharpe, MV, B-L
- Przetwarzanie danych rynkowych
- Przetwarzanie danych o transakcjach: FIX, SWIFT, JSON, XML
- Analiza ryzyka: Greeks, VaR, CVaR, Analiza Scenariuszowa, Stress testing
- Wstęp do tradingu algorytmicznego: Event Driven, StatArb, Trend Following, Mean Reversion
- Backtesting strategii
Blok 3 — AI
+
- Wstęp teoretyczny do podstaw AI: Supervised i Unsupervised learning w finansach
- Biblioteki: TensorFlow, Keras
- Zaawansowane techniki promptowania LLM
- Budowanie autonomicznych systemów agentowych na bazie LLM
Gotowy, żeby zacząć?
Napisz do nas na Instagramie — odpiszemy i ustalimy szczegóły.
Java – od podstaw
do systemów rozproszonych
Kompletna ścieżka dla programistów Java — od pierwszych zmiennych po skalowalną architekturę mikroserwisów w Spring Boot.
Kod, który działa na produkcji
Ten kurs jest dla osób, które chcą nauczyć się Javy od zera lub ustrukturyzować istniejącą wiedzę i przejść na wyższy poziom. Skupiamy się na pisaniu kodu, który działa w produkcji — na skali, z monitoringiem i w rozproszonym środowisku. Nie uczymy akademickiej teorii. Uczymy tego, co jest wymagane w prawdziwych projektach.
Zakres kursu
Część podstawowa — fundament języka
+
- Zmienne, typy danych, operatory
- Instrukcje warunkowe i pętle
- Tablice i operacje na danych
- Metody: parametry, zwracanie, overloading
- Praca na plikach
- Kolekcje: List, Set, Map oraz podstawy wydajności
- Podstawowe algorytmy: sortowanie, filtrowanie, wyszukiwanie
- Programowanie obiektowe: klasy, pola, konstruktory
- Enkapsulacja: gettery/settery, toString
- equals() i hashCode()
- Dziedziczenie i polimorfizm
- Asocjacje między obiektami
- Interfejsy i klasy abstrakcyjne
- Enumy
- String i StringBuilder, wyrażenia regularne (Regex)
- Obsługa wyjątków: try-catch, custom exceptions
- Data i czas, Generyki, Serializacja
- BigDecimal / BigInteger — precyzja obliczeń
- Wstęp do współbieżności: Thread, Runnable, pule wątków
Rozszerzenie — narzędzia i testy
+
- Maven — zarządzanie zależnościami i konfiguracja projektu
- Testy jednostkowe: JUnit + Mockito
- Testy integracyjne: Spring + Testcontainers
- JSON: ObjectMapper, JsonNode
Rozszerzenie — bazy danych
+
- Bazy danych: JDBC, SQL, optymalizacja zapytań
- Transakcje, izolacja i propagacja
- Hibernate / JPA: relacje, lazy/eager loading, problem N+1, projekcja
- Liquibase / Flyway: migracje bazy danych
Rozszerzenie — Spring Boot i API
+
- Spring Core: Dependency Injection, konfiguracja
- Spring Boot: auto-konfiguracja, profile
- REST API: projektowanie i walidacja
- Walidacja: własne walidatory
- Klienci HTTP: RestTemplate, RestClient, WebClient, Feign
- Wysyłanie maili
- Security: Basic Auth, OAuth2, Keycloak
- Kolejki i komunikacja async: RabbitMQ i Kafka (podstawy)
- Scheduler i zadania cykliczne z ShedLock
- Aspekty (AOP)
- Obsługa dużych plików i streaming danych
- Cache i wydajność: Redis
Rozszerzenie — architektura i skala
+
- Docker i konteneryzacja
- Architektura: mikroserwisy vs. monolit
- Skalowanie i systemy rozproszone: load balancing, resiliency patterns
- LocalStack i symulacja usług AWS
Przez całe rozszerzenie skupiamy się na skali, przetwarzaniu dużych ilości danych, monitorowaniu wydajności i problemach środowiska rozproszonego.
Gotowy, żeby zacząć?
Napisz do nas na Instagramie — odpiszemy i ustalimy szczegóły.
Posłuchaj czego nauczysz się na kursie
AI i Machine Learning
Weekendowe wykłady grupowe prowadzone przez praktyków. Dwa niezależne kursy — wybierz jeden lub oba.
Wykłady weekendowe w grupach
Oba kursy prowadzone są w formie weekendowych wykładów grupowych. Uczysz się razem z innymi, wymieniasz doświadczeniami i budujesz sieć kontaktów w branży. Możesz wybrać Kurs A, Kurs B, lub oba — każdy realizowany jest jako osobna edycja.
Data Engineering for Machine Learning
- Praca projektowa: repo + Git, realny workflow (branching, PR, code review)
- Podstawy Pythona pod dane: typy, funkcje, praca w Jupyter / VS Code
- Import danych: CSV, Excel, API
- Budowa warstwy raw i ingestion pipeline
- Czyszczenie danych z pandas: missing data, outliery, typy danych
- Transformacje danych: merge, groupby, pivot — warstwa clean
- EDA i wizualizacja: analiza danych, wykresy, wnioski biznesowe
- SQL podstawowy → zaawansowany: JOIN, CTE, window functions
- Optymalizacja zapytań: indeksy, plany zapytań, wydajność
- Projektowanie schematu danych: Star Schema, fakty i wymiary
- Data quality i testy danych: walidacje, reguły, test suite
- Big Data – Spark / PySpark: przetwarzanie dużych datasetów
- Pipeline raw → silver → gold: warstwowa architektura danych
- Streaming (podstawy): microbatch, incremental load, watermark
- Azure Data Stack: ADLS, Data Factory, Synapse, Power BI
- Finalny pipeline (capstone): end-to-end + CI/CD + dokumentacja
Classical ML & Deep Learning
- Lifecycle ML: baseline → walidacja → eksperymenty
- Podział danych i metryki: train/val/test, dobór metryk
- Preprocessing pipeline: encoding, scaling, ColumnTransformer
- Feature engineering: agregacje, interakcje, PCA
- Unikanie data leakage: poprawna walidacja modeli
- Modele regresji: Linear, Ridge, Lasso, analiza błędów
- Modele klasyfikacji: Logistic, drzewa decyzyjne, Random Forest
- SVM i ensemble: boosting, bagging, porównania modeli
- Interpretowalność modeli: SHAP, feature importance, model card
- Hyperparameter tuning: Grid/Random Search, CV
- Unsupervised learning: clustering (K-Means, hierarchical)
- Anomaly detection i monitoring: Isolation Forest, data drift
- Time series forecasting: ARIMA, exponential smoothing, backtesting
- Deep Learning: NN, CNN, RNN, LSTM, Transformers
- Azure ML + deployment: AutoML, endpoint, monitoring modelu
Chcesz dołączyć do grupy?
Napisz do nas na Instagramie — poinformujemy Cię o terminie najbliższej edycji.
Data Engineer
Spark, Databricks, Airflow, Kafka i GCP w jednym kursie. Dla tych, którzy chcą budować solidne pipeline’y danych na produkcji.
Cały stack inżyniera danych
Ten kurs jest dla programistów i analityków, którzy chcą wejść w Data Engineering lub podnieść umiejętności do poziomu senior. Zakres obejmuje cały stack nowoczesnego inżyniera danych — od SQL i Pythona po Terraforma i GCP.
Zakres kursu
Pełny zakres technologiczny
+
- Apache Spark — przetwarzanie danych na dużą skalę
- Databricks — platforma do pracy z danymi i ML
- Data Lake — architektura i organizacja warstw danych
- SQL — od podstaw do zaawansowanych zapytań analitycznych
- Python — scripting, przetwarzanie danych, automatyzacja
- Docker, Git i Linux — środowisko pracy inżyniera
- DBT (Data Build Tool) — transformacje danych i testy
- Apache Airflow — orkiestracja pipeline’ów
- Kafka — strumieniowe przetwarzanie danych
- GCP BigQuery i Cloud Storage — praca z danymi w chmurze Google
- Terraform — infrastruktura jako kod
- PySpark — Python API dla Apache Spark
- Parquet — kolumnowy format danych, optymalizacja
Gotowy, żeby zacząć?
Masz pytania albo chcesz się zapisać? Napisz do nas na Instagramie @data_wolves.