Analityk danych
w IT
Kurs online o analizie danych w IT
DATY:
30.01.24 – 11.04.24
CZAS TRWANIA:
12 tygodni
Wtorki i czwartki
18:30-20:30
PARTNER KURSU:
MODUŁ DODATKOWY:
Podczas kursu nauczysz się pracować w chmurze oraz korzystać z analitycznych zestawów narzędzi języka Python. Poznasz również cały proces analityczny i metody przekładania wyników liczbowych na język biznesu oraz poprawisz komunikację z interesariuszami.
Samodzielnie przeprowadzisz analizę eksploracyjną danych (EDA - Explolatory data analysis) z wykorzystaniem biblioteki Pandas, poznasz język SQL i zrealizujesz wartościowy projekt analityczny, który wzbogaci twoje portfolio.
Ten kurs jest dla Ciebie, jeśli jesteś:
-
Osobą chcącą wejść do świata IT, nie mającą zaplecza technicznego
Opanujesz kluczowe narzędzia i technologie potrzebne do kompleksowej analizy danych. Rozwiniesz analityczne myślenie i dowiesz się, jak zbudować i uruchomić projekt analityczny.
-
Junior Data Specjalistą
Poznasz całościowy obraz analizy danych i staniesz się bardziej samodzielny w codziennej pracy. Wejdziesz na nowy poziom znajomości języka SQL, poznasz zestawy narzędzi Pythona i rozwiązania do wizualizacji oraz tworzenia raportów. Nauczysz się przekładać wyniki liczbowe na język biznesu.
-
Analitykiem marketingowym / Product Managerem
Zrozumiesz wyzwania techniczne i złożoność problemów w projektach bazujących na analizie dużych zbiorów danych (big data) oraz nauczysz się określać KPI. Nauczysz się budować prognozy i tworzyć na ich bazie skuteczne rozwiązania biznesowe. Opanujesz sposoby komunikacji z zespołami technicznymi i analitycznymi.
-
Specjalistą finansowym
Dowiesz się, co jest prawdziwym celem analizy danych. Podczas kursu poznasz też zestawy narzędzi Pythona, które pomogą ci w automatyzacji powtarzalnych zadań związanych z pracą analityka danych w IT.
-
Specjalistą IT
Rozwiniesz się w kolejnym obszarze zawodowym i poznasz wyzwania, jakie stoją przed analitykiem danych. Zdobyta na kursie wiedza umożliwi ci eksplorację ścieżek kariery w IT.
W TRAKCIE PRAKTYCZNEGO 12-TYGODNIOWEGO KURSU:
-
Poznasz pracę analityka danych IT
Dowiedz się więcej o metodyce CRISP-DM oraz współpracy analityka z innymi zespołami w organizacji. Nasi prowadzący pokażą ci jak rozpocząć projekt i nim zarządzać.
-
Odkryjesz podstawy analizy danych
Poznaj możliwości, jakie analitykowi daje arkusz kalkulacyjny, bazy danych, procesy ETL oraz narzędzia Business Intelligence. Przygotuj kompleksowy projekt końcowy, który wzbogaci twoje CV i pomoże w poszukiwaniu zatrudnienia jako analityk danych w IT.
O kursie
-
PRAKTYCZNE ZAJĘCIA ONLINE NA ŻYWO Bezpośredni kontakt z wykładowcami pomoże ci lepiej zrozumieć omawiane zagadnienia, a w razie pytań szybko uzyskać konkretną odpowiedź z wiarygodnego źródła. Na każdych zajęciach poświęcamy ok. 75 minut na ćwiczenie omawianych zagadnień – pracujemy w chmurze (GCP), dzięki czemu nie obciążasz swojego procesora.
-
PROJEKT DO PORTFOLIO Na kursie zdobędziesz cenną wiedzę oraz umiejętności, ale wykonasz też projekt, który będziesz mógł wykorzystać w portfolio. To zwiększy twoją wartość na rynku pracy i pomoże podczas rekrutacji.
-
SYMULACJA ŚRODOWISKA PRACY Nauka poprzez symulację bazuje na edukacji przez działanie (learning by doing). Możesz uczyć się na błędach popełnianych wielokrotnie (celowo lub przypadkowo), bez ponoszenia konsekwencji. W trakcie zajęć będziesz pracował na najnowszych narzędziach i frameworkach.
PROWADZĄCY
Joanna Sarata
- Senior Business Intelligence Analyst w Sabre
- Swoje 10-letnie doświadczenie analityczki zdobyła, pracując w branżach e-commerce, FMCG oraz bankowej w zespołach BI
- Zajmowała się konsultingiem analitycznym dla zewnętrznych klientów oraz prowadzeniem szkoleń z zakresu statystyki i narzędzi analitycznych
- Ukończyła szkolenia:
- Data Engineering on Google Cloud
- Tableau Desktop III: Advanced
Michał Poliński
- Lead Data Science Engineer w Sabre
- Swoje 6-letnie doświadczenie zdobył, pracując jako Data Scientist, analityk biznesowy, Technical Product Manager, inżynier systemowy oraz inżynier CAE/HVAC
- Zdobył certyfikat:
- Professional Machine Learning Engineer
- Professional Data Engineer
ROZKŁAD ZAJĘĆ
Wtorek, 30.01.2024, 18:30-20:30
Wprowadzenie do zawodu analityka danych
- Metodyka pracy CRISP-DM
- Rola analityka w organizacji – badanie otoczenia
- Różnice między analitykiem: danych, biznesowym, finansowym, internetowym, produktu
- Współpraca z innymi zespołami
- Jak rozpocząć projekt?
Czwartek, 01.02.2024, 18:30-20:30
Podstawowa analiza danych
- Do czego służy arkusz kalkulacyjny analitykowi?
- Wiersz i kolumna
- Tabele przestawne
- Wykresy
- Import i czyszczenie danych
- Funkcje agregujące
- Średnia krocząca – window function
Wtorek, 06.02.2024, 18:30-20:30
Mam zbiór danych i co dalej? Case study z analizą eksploracyjną
- Czym jest analiza eksploracyjna?
- Miary centralne i miary rozproszenia
- Użycie bibliotek Pandas i NumPy do zrozumienia zbioru danych
Czwartek, 08.02.2024, 18:30-20:30
Bazy danych
- Podstawy bazy danych
- MySQL
- Agregacja
Wtorek, 13.02.2024, 18:30-20:30
Jak czytać query? SQL nie zaczyna się od SELECT
- Polecenia SQL i kolejność ich wykonywania
- Podstawowe polecenia
- JOIN
- CTE + Windows function
- UML w bazach danych – Data Modeling
Czwartek, 15.02.2024, 18:30-20:30
SQL lub NoSQL? To jest pytanie!
- Python i praca ze słownikami
- Korzystanie z bazy Firestore. Praca z plikami JSON
- Bucket praca na plikach w cloud
Wtorek, 20.02.2024, 18:30-20:30
Pliki, bazy, przepływy, czyli ETL
- Operacje na dużym zbiorze danych przy użyciu Dataproc/PySpark
- Hadoop i podejście „schema on read”
- Partycjonowanie dużych zbiorów danych
Czwartek, 22.02.2024, 18:30-20:30
BigQuery – Big Problem?
- BigQuery WebUi – bezserwerowa, skalowalna hurtownia danych w chmurze (cloud data warehouse)
- Klastrowanie
- Kontrolowanie kosztów i optymalizacja
- Python API
Wtorek, 27.02.2024, 18:30-20:30
Warsztaty jak przejść rekrutację? Rozmowa techniczna – tips and tricks
- Zadania rekrutacyjne z SQL na jednej tabeli
- Pytania zamknięte z SQL i pytania otwarte z analizy
- Debugowanie Query
- Rekrutacja z AI
- Case study
Czwartek, 29.02.2024, 18:30-20:30
Stawiam hipotezę! Jak ją sprawdzę?
- Stawianie hipotez – hipoteza zerowa i alternatywna
- Czym jest próba a czym populacja?
- Dobór próby
- Rozkład normalny
- Prawo pięciu
Wtorek, 05.03.2024, 18:30-20:30
Od teorii do praktyki. Jakie testy do jakich zmiennych?
- Python SciPy – biblioteka open source używana do rozwiązywania problemów matematycznych, naukowych, inżynieryjnych i technicznych
- Scikit-learn – biblioteka Pythona przeznaczona do uczenia maszynowego
- Testy statystyczne dla dwóch zmiennych – w zależności od typu zmiennej
- Porównywanie grup – ANOVA
Czwartek, 07.03.2024, 18:30-20:30
Czy korelacja to przyczynowość? Od korelacji do regresji
- Korelacja a przyczynowość
- Python scikit-learn – implementacja algorytmów uczenia maszynowego, takich jak regresja, klasyfikacja, grupowanie, ewaluacja modeli
- Korelacja a kowariancja
- Współczynnik Pearsona
Wtorek, 12.03.2024, 18:30-20:30
Od regresji do ML
- Regresja jednej zmiennej
- Zmienna zależna i niezależna – kierunkowość
- Drzewa decyzyjne
Czwartek, 14.03.2024, 18:30-20:30
Q&A obejmujące teoretyczne aspekty kursu w kontekście projektów
- Wykorzystanie zebranego materiału w projektach końcowych
- Pytania od uczestników
Wtorek, 19.03.2024, 18:30-20:30
Widok analityczny – do czego mi to potrzebne?
- Czym jest Business Intelligence?
- Czym jest widok analityczny i jak go zbudować?
- Tworzenie zmiennych analitycznych w widoku – KPI
- Automatyzacja widoku analitycznego – operacje na danych
- Wykorzystanie dotychczasowej wiedzy na temat SQL
Czwartek, 21.03.2024, 18:30-20:30
Poeksperymentujmy! Testy A/B
- Czym są testy A/B oraz kiedy je stosować?
- Przejście do praktyki – przygotowanie widoku analitycznego do testów A/B
- Przeprowadzenie testów A/B z wykorzystaniem scikit-learn
Wtorek, 26.03.2024, 18:30-20:30
Narysuj mi dane
- O wizualizacjach
- Python Seaborn – biblioteka zbudowana na bazie Matplotlib, służąca do tworzenia wizualizacji danych
- Typy wykresów – stosowanie ze względu na typy danych i przekazane informacje
- Dobór kolorów
Czwartek, 28.03.2024, 18:30-20:30
Dane – informacje – insight , czyli jak zbudować dashboard i przedstawić wyniki
- Looker Data Studio – obsługa narzędzia
- Jak budować dashboard – co ma przekazywać, na jakie pytania odpowiadać, kto jest odbiorcą?
- Automatyzacja dashboardu
- Podstawy data storytelling
Wtorek, 02.04.2024, 18:30-20:30
Q&A obejmujące techniczne aspekty kursu w kontekście projektów
- Wybór datasetu
- Przygotowanie do prezentacji projektu
Wtorek, 09.04.2024, 18:30-20:30
Prezentacja i obrona projektów część 1
- Zajęcia w formie warsztatowej – każdy uczestnik ma 15 minut, aby przedstawić całościowy, spójny projekt, który przygotował w trakcie trwania kursu.
- Prezentacja projektu (5 min)
- Czas na pytania (10 min)
Czwartek, 11.04.2024, 18:30-20:30
Prezentacja i obrona projektów część 2
Zajęcia w formie warsztatowej – każdy uczestnik ma 15 minut, aby przedstawić całościowy, spójny projekt, który przygotował w trakcie trwania kursu.
- Prezentacja projektu (5 min)
- Czas na pytania (10 min)
Moduł Rekrutacja IT
- Jak przygotować się do rozmowy?
- Modelowa ścieżka rekrutacyjna
- Po czym poznać dobrego rekrutera i jak poradzić sobie z tym kiepskim?
- W jaki sposób „sprzedać” siebie?
PO TYM KURSIE MOŻESZ BUDOWAĆ KARIERĘ JAKO:
-
ANALITYK DANYCH Jeśli chcesz się rozwijać w tym kierunku, ale brakuje ci podstaw, ten kurs przygotuje cię w zakresie: przeprowadzania całościowego procesu analitycznego, sprawnej komunikacji z biznesem i innymi interesariuszami, full-stack analityki, przekładania wyników liczbowych na język biznesu.
-
BUSINESS INTELLIGENCE ANALYST Ten kurs rozwinie takie obszary jak: budowanie dashboardów, wizualizacje, insight (wnioski), testowanie hipotez, pracę z danymi (analiza ilościowa), potrzebne w pracy każdego BIA.
-
SQL DEVELOPER W tej ścieżce kurs wesprze cię w zrozumieniu SQL i relacyjnych baz danych, znajomości koncepcji indeksowania, normalizacji i optymalizacji baz danych, biegłości w pisaniu zapytań SQL do ekstrakcji danych i manipulacji nimi, umiejętności rozwiązywania problemów i dbałości o szczegóły, a także skutecznej komunikacji z resztą zespołu.
Więcej informacji
Wypełnij i wyślij formularz, a nasz doradca edukacyjny skontaktuje się z tobą tak szybko, jak to możliwe i udzieli szczegółowych informacji na temat przebiegu oraz ceny kursu.
FAQ
-
Jakie są wymagane umiejętności przed rozpoczęciem kursu?
- Podstawowa umiejętność stosowania komend w Excelu
-
Wymagania sprzętowe
- Komputer z systemem Windows/MacOS (min. 8 GB)
- Przeglądarka internetowa (preferowane Chrome/Firefox/Safari)
-
Software, którego będziemy używać w trakcie kursu
Podczas zajęć będziesz pracować przy użyciu rozwiązań chmurowych i narzędzi otwieranych bezpośrednio w przeglądarce. Przygotujemy dla Ciebie środowisko pracy, które nie wymaga instalacji, jest gotowe do użycia bez specjalistycznej programistycznej wiedzy.
- Python
- Pandas
- Numpy
- Seaborn
- Scikit-learn
- SQL
- Google Cloud Platform
- Spark
- BigQuery
- Looker Data Studio
-
Jak będzie wyglądał projekt końcowy?
Na ostatnich zajęciach zaprezentujesz swój projekt. Będziesz na to mieć 15 min, podczas których:
- spójnie i biznesowo przedstawisz wnioski z uwzględnieniem definicji problemu, wyników i rekomendacji oraz dashboardu (5 minut)
- odpowiesz na pytania prowadzących oraz pozostałych uczestników (10 min)
-
Słownik
- Python – język programowania popularny w data analysis i data science
- Seaborn – jedna z bibliotek Pythona, zbudowana na bazie Matplotlib, służąca do budowania wizualizacji danych
- Pandas – jedna z bibliotek Pythona, służąca do ładowania, czyszczenia i analizowania danych, odpowiednik arkusza kalkulacyjnego (excela) w środowisku Pythona
- Numpy – jedna z bibliotek Pythona, służąca do przeprowadzania operacji na macierzach
- Scikit-learn – jedna z bibliotek Pythona, wykorzystywana do algorytmów uczenia maszynowego
- SQL – język wykorzystywany w pracy z bazami danych
- JOIN – podstawowa operacja języka SQL służąca do łączenia dwóch odrębnych zbiorów
- Dataset – zbiór danych w bazie danych
- ETL (extract, transform, load) – etapy procesowania danych, również szereg narzędzi wspomagających proces pozyskania i obróbki danych
- noSql – nierelacyjny sposób przechowywania danych, odnosi się do baz danych, gdzie format przechowywania jest inny niż relacyjny
- Hadoop – system rozproszonego przechowywania i przetwarzania plików wykorzystywany w Big Data
- Big Data – duże i złożone zbiory danych, które ze względu na swoją wielkość są problematyczne w przechowywaniu i przetwarzaniu
- Spark (silnik) – biblioteka do sprawnego przetwarzania dużej ilości danych
- BigQuery – bezserwerowa hurtownia danych od Google, która obsługuje zapytania SQL, łączy w sobie zalety Hadoopa i bazy danych
- Looker Data Studio - służy do raportowania i wizualizacji danych w formie dashboardu