Programowanie i zarządzanie sztuczną inteligencją (6-cio modułowy warsztat online)

Sztuczna inteligencja (AI) z technologii przyszłości w błyskawicznym tempie stała się częścią naszej rzeczywistości. Technologie, takie jak OpenAI (ChatGPT) czy Midjourney budzą globalne zainteresowanie i pobudzają wyobraźnię. AI nie tylko zmienia sposób, w jaki komunikujemy się z innymi ludźmi i maszynami, ale także otwiera nowe możliwości dla rozwoju osobistego i zawodowego.

Jako firma technologiczna zajmująca się wdrożeniami sztucznej inteligencji, uczeniem maszynowym a także projektami edukacyjnymi proponujemy Państwu kompleksowy kurs pozwalający na nabycie wiedzy na temat programowania sztucznej inteligencji oraz trendów w świecie AI. Program został przygotowany przez multidyscyplinarny zespół praktyków z doświadczeniem programistycznym i dydaktycznym.

Uczestnik kursu zdobywa kompleksową wiedzę na temat sztucznej inteligencji nie tylko w zakresie teorii, ale przede wszystkim jej programowania, obsługi i praktycznego zastosowania.

Kurs składa się z 6 modułów:

Terminy: do uzgodnienia dla zorganizowanych grup minimum 3 osób.

Liczba godzin każdego modułu: 10 (5 godzin po 60 min każdego dnia wraz z przerwą kawową) w godzinach 9:00-14:00.

Lokalizacja: warsztaty zdalne.

Grupa: do 10 osób.

Wykładowcy: mgr Adam Mieldzioc, Prof. UAM dr hab. Łukasz Smaga, Prof. UAM dr hab. Tomasz Górecki, Mgr Damian Tawrel.

Cena: 8 000 zł netto (9 840 zł brutto) za osobę (zamówienie min. dla 3 osób).

Moduł 1: Wstęp do programowania sztucznej inteligencji w Pythonie (10 godzin po 60 min)

Zagadnienia:

  • Wprowadzenie do Pythona (Zapoznanie się z podstawowymi konceptami i składnią języka Python)
  • Podstawowe typy zmiennych oraz danych (liczby, ciągi znaków (stringi), tablice, słowniki i listy)
  • Podstawowe operatory (m.in. matematyczne, logiczne i porównania)
  • Wprowadzenie do programowania: pętle, instrukcje warunkowe, funkcje
  • Moduły i pakiety w Pythonie (importowanie i używanie gotowych modułów oraz tworzenie własne modułów i pakietów)
  • Operacje wejścia i wyjścia (odczyt danych z plików, zapisywanie wyników do pliku)
  • Wprowadzenie do analizy danych (biblioteki takie jak NumPy i pandas do manipulacji danymi i wykonywania prostych analiz)
  • Podstawy wizualizacji danych (biblioteka Matplotlib)
  • Efekty kształcenia:


    Kursanci poznają składnię języka Python, włączając w to deklarację zmiennych, operatory, instrukcje warunkowe, pętle i funkcje. Będą w stanie pisać czytelny i efektywny kod w Pythonie, który pozwoli na manipulowanie danymi. Nauczą się tworzyć programy, które wykorzystują pętle, instrukcje warunkowe i funkcje. Będą w stanie tworzyć algorytmy, kontrolować przepływ programu i rozwiązywać problemy za pomocą programowania z wykorzystaniem gotowych modułów i bibliotek w Pythonie. Poznają popularne moduły takie jak NumPy, pandas i Matplotlib, które są często używane w analizie danych i wizualizacji, używając do tego operacji wejścia i wyjścia. Dzięki temu filtrowanie, sortowanie danych nie będzie sprawiało żadnych kłopotów i pozwoli na tworzenie czytelnych wykresów oraz histogramów.

    Wykładowca:

    Mgr Adam Mieldzioc

    Studiował matematykę i informatykę na Wydziale Matematyki i Informatyki Uniwersytetu im. Adama Mickiewicza w Poznaniu. Zatrudniony na stanowisku asystenta w Katedrze Metod Matematycznych i Statystycznych Uniwersytetu Przyrodniczego w Poznaniu, a obszarem jego zainteresowań naukowych jest statystyka matematyczna, analiza danych oraz uczenie maszynowe. Pracował również jako programista/analityk danych. Specjalista w dziedzinie programowania w R i Python. Ukończył letnią szkołę “Computation and Modelling” prowadzoną w Pythonie na Politechnice Wrocławskiej. Prowadzi zajęcia m.in. z programowania, co wykorzystuje w swoich badaniach naukowych oraz w swojej rozprawie doktorskiej pt. „Regularyzacja i estymacja macierzy kowariancji o strukturze liniowej”. Prelegent poznańskiej grupy użytkowników R (PAZUR) oraz licznych seminariów i konferencji.

    Moduł 2: Wstęp do data science w Pythonie (10 godzin po 60 min)

    Zagadnienia:

  • Biblioteka numpy
  • Biblioteka pandas
  • Import i zapis danych
  • Klasyczne i odporne miary położenia i rozrzutu
  • Wykres słupkowy, kołowy, histogram, wykres estymatora gęstości, wykres pudełkowy, wykres kwantyl-kwantyl, wykres rozrzutu (biblioteki matplotlib, seaborn, plotly)
  • Przedziały ufności – podejście klasyczne i resamplingowe
  • Klasyczne oraz permutacyjne i bootstrapowe testy statystyczne
  • Test najbliższych sąsiadów
  • Test A/B
  • Symulacyjne porównanie rozmiaru i mocy testów (metoda Monte Carlo)
  • Analiza korelacji
  • Efekty kształcenia:


    Kursanci nabędą umiejętności posługiwania się trzema bibliotekami języka Python, które stanowią główne narzędzia data science. Pierwszą z nich jest pakiet numpy, który udostępni im klasę tablic dowolnego wymiaru oraz szeroką gamę bardzo wydajnych funkcji służących do przekształcania i podsumowywania zawartych w nich informacji. W ten sposób uczestnicy będą mogli wykonywać praktycznie wszystkie szeroko pojęte obliczenia numeryczne w języku Python, w szczególności związane z sieciami neuronowymi. Pakiet numpy jest podstawą biblioteki pandas, która z kolei dostarcza chyba najczęściej używanego w codziennej pracy data scientist typu danych jakim jest ramka danych (ang. data frame). Obiekty tego typu pozwalają w szczególności na wybór podzbioru danych, ich grupowania, łączenia, obliczania podstawowych statystyk i radzenia sobie z brakami danych. Wykorzystanie tych dwóch bibliotek uczestnicy przećwiczą wyznaczając miary położenia i rozrzutu zmiennych, przedziały ufności dla parametrów, testując hipotezy statystyczne oraz dokonując analizy korelacji. Poznają podejścia klasyczne, ale również metody odporne i resamplingowe (permutacyjne i bootstrapowe), które są popularne w analizie danych. W szczególności dowiedzą się, czym jest test A/B, dzięki któremu będą mogli zweryfikować np. który z nagłówków spowoduje więcej wejść na stronę internetową firmy. Jest to popularne badanie w marketingu i świece e-commerce. Dowiedzą się również jak badać wydajność procedur testowych za pomocą metody Monte Carlo bazującej na obliczeniach numerycznych. Uczestnicy poznają bibliotekę matplotlib, która pozwala na wizualizację danych za pomocą szeroko wykorzystywanych wykresów w data science.

    Wykładowca:

    Prof. UAM dr hab. Łukasz Smaga

    Profesor uczelni w Zakładzie Statystyki Matematycznej i Analizy Danych na Wydziale Matematyki i Informatyki Uniwersytetu im. Adama Mickiewicza w Poznaniu. Pracuje naukowo w dziedzinach testowania hipotez statystycznych, analizy danych funkcjonalnych oraz teorii eksperymentu. Zajmuje się również zastosowaniami metod statystycznych i uczenia maszynowego w praktycznych zagadnieniach. Od wielu lat programuje w języku R i jest współautorem pięciu jego pakietów dostępnych w repozytoriach CRAN i github. Doświadczony dydaktyk w zakresie rachunku prawdopodobieństwa, statystyki matematycznej i jej zastosowań. Współpracuje m.in. z pracownikami National University of Singapore, TU Dortmund University, Texas Tech University, Shiga University, Politechniki Poznańskiej i Uniwersytetu Ekonomicznego w Poznaniu.

    Moduł 3: Machine learning w Pythonie (10 godzin po 60 min)

    Zagadnienia:

  • Wprowadzenie do biblioteki pandas – przygotowanie danych do dalszej analizy.
  • Wprowadzenie do bibliotek matplotlib oraz seaborn – wizualizacja danych w celu lepszego ich zrozumienia, interpretacji wyników i podejmowania decyzji.
  • Imputacja danych (uzupełnianie braków w danych).
  • Metody wykrywania obserwacji odstających (anomalie).
  • Kodowanie danych jakościowych na potrzeby algorytmów uczenia maszynowego
  • Badanie zależności: regresja liniowa i wielokrotna.
  • Problem współliniowości zmiennych, regresja nieliniowa i logistyczna.
  • Redukcja wymiaru danych: metoda PCA, metody t-SNE oraz UMAP, skalowanie wielowymiarowe, analiza korespondencji.
  • Metody analizy skupień: metody hierarchiczne i niehierarchiczne (metoda k-średnich, PAM), metoda DBSCAN.
  • Metody klasyfikacji: metoda najbliższych sąsiadów, sieci neuronowe, drzewa decyzyjne, lasy losowe.
  • Efekty kształcenia:


    Po ukończeniu kursu, uczestnicy powinni samodzielnie przeprowadzać zaawansowane analizy danych i budować efektywne modele uczenia maszynowego. W dodatku, zdobędą umiejętności niezbędne do zrozumienia, interpretacji i komunikacji wyników analizy danych, co jest kluczowe w wielu dziedzinach, od nauki do biznesu. W szczególności po ukończeniu kursu, uczestnicy powinni być w stanie:

  • Przygotować i przetwarzać dane. Uczą się, jak korzystać z biblioteki pandas do wczytywania, czyszczenia, manipulacji i przygotowywania danych do analizy.
  • Wizualizować dane. Zdobywają umiejętności tworzenia różnego rodzaju wykresów i diagramów za pomocą bibliotek matplotlib i seaborn, co pomaga w zrozumieniu danych i wyników analizy.
  • Obsługiwać brakujące dane. Zdobywają doświadczenie w imputacji danych, czyli technikach uzupełniania brakujących wartości w zestawach danych.
  • Wykrywać anomalie. Uczą się metod wykrywania obserwacji odstających, co jest kluczowe dla utrzymania jakości danych i wiarygodności modeli.
  • Kodować dane jakościowe. Zdobywają umiejętności konwertowania danych jakościowych na numeryczne, co jest niezbędne do wykorzystania tych danych w modelach uczenia maszynowego.
  • Wykonywać analizę regresji. Zdobywają umiejętności zastosowania regresji liniowej, wielorakiej, nieliniowej i logistycznej do badania zależności między zmiennymi.
  • Redukować wymiar danych. Uczą się technik redukcji wymiarowości, takich jak PCA, t-SNE, UMAP, skalowanie wielowymiarowe i analiza korespondencji.
  • Wykonywać analizę skupień. Zdobywają doświadczenie w zastosowaniu różnych technik analizy skupień, takich jak metody hierarchiczne i niehierarchiczne (metoda k-średnich, PAM) oraz metoda DBSCAN.
  • Klasyfikować dane. Zdobywają umiejętności budowy i oceny modeli klasyfikacyjnych, takich jak metoda najbliższych sąsiadów, sieci neuronowe, drzewa decyzyjne i lasy losowe.
  • Wykładowca:

    Prof. UAM dr hab. Tomasz Górecki

    Profesor uczelni w Zakładzie Statystyki Matematycznej i Analizy Danych na Wydziale Matematyki i Informatyki Uniwersytetu im. Adama Mickiewicza w Poznaniu, prodziekan ds. grantów i współpracy z gospodarką na Wydziale Matematyki i Informatyki UAM. Naukowo zajmuje się analizą szeregów czasowych, analizą danych funkcjonalnych oraz sztuczną inteligencją. Zajmuje się również zastosowaniami metod statystycznych i uczenia maszynowego w praktycznych zagadnieniach. Od ponad dwudziestu lat prowadzi zajęcia związane z rachunkiem prawdopodobieństwa, statystyką, uczeniem maszynowym i sztuczną inteligencją. Współpracuje z wieloma firmami na polu uczenia maszynowego i sztucznej inteligencji (Lidl, OLX, PWN, Samsung, Smartstock). Od wielu lat posługuje się językami Python oraz R, jest m.in. współautorem pakietów w R oraz autorem książki “Podstawy statystyki z przykładami w R”. Współpracuje m.in. z pracownikami Colorado State University, University of Utah, Politechniki Poznańskiej, Uniwersytetu Ekonomicznego w Poznaniu oraz Uniwersytetu Przyrodniczego w Poznaniu.

    Moduł 4: Deep learning (sieci neuronowe) w Pythonie (10 godzin po 60 min)

    Zagadnienia:

  • Biblioteka H2O. Biblioteka H2O to otwarte narzędzie do analizy danych, które oferuje wszechstronny wybór algorytmów do uczenia maszynowego. Działa na platformach takich jak R, Python i Scala, a także na platformach Big Data, takich jak Hadoop i Spark. Wśród najważniejszych cech H2O są jego zdolność do skalowania na wielowątkowych systemach i obsługa uczenia maszynowego na dużą skalę. H2O jest dobrze znanym i szeroko stosowanym narzędziem w społeczności naukowców danych, ze względu na jego elastyczność, wydajność i wszechstronność.
  • Automatyczne modele uczenia maszynowego (AutoML). H2O dostarcza też zestaw narzędzi do automatycznego uczenia maszynowego, które pomagają w automatycznym wyborze najlepszego modelu dla danego zestawu danych.
  • Wprowadzenie do sieci neuronowych (historia, podstawowe typy sieci, budowa klasycznych sieci neuronowych, metody uczenia, hiperparametry).
  • Wprowadzenie do głębokich sieci neuronowych (budowa sieci głębokich, typy warstw, zalety).
  • Biblioteka keras. Keras to biblioteka do głębokiego uczenia maszynowego napisana w Pythonie, której celem jest umożliwienie szybkiego eksperymentowania z sieciami neuronowymi. Jest ona łatwa do zrozumienia i do użycia, a jednocześnie jest wysoce modularna i elastyczna, co pozwala na łatwe tworzenie i prototypowanie modeli sieci neuronowych. Keras oferuje API wysokiego poziomu, które abstrahuje wiele szczegółów technicznych, co pozwala na skupienie się na projektowaniu i doskonaleniu modeli. Biblioteka obsługuje wiele typów modeli, w tym sieci konwolucyjne, rekurencyjne, a także kombinacje tych typów. Keras pierwotnie został stworzony jako interfejs użytkownika dla biblioteki TensorFlow, ale teraz obsługuje wiele różnych backendów obliczeniowych, w tym TensorFlow, Theano i Microsoft Cognitive Toolkit.
  • Konwolucyjne (splotowe) sieci neuronowe.
  • Sieci rekurencyjne, w szczególności sieci typu LSTM oraz GRU.
  • Efekty kształcenia:


    Po ukończeniu kursu, uczestnicy powinni samodzielnie przeprowadzać zaawansowane analizy danych, korzystając z najnowszych technik uczenia maszynowego i głębokiego uczenia. Będą także w stanie projektować, implementować i oceniać modele sieci neuronowych za pomocą bibliotek H2O i Keras, co jest kluczowe dla wielu zaawansowanych zastosowań uczenia maszynowego. W szczególności, po ukończeniu kursu, uczestnicy powinni:

  • Korzystać z biblioteki H2O. Zdobywają umiejętności korzystania z biblioteki H2O do przeprowadzania zaawansowanych analiz danych i budowania modeli uczenia maszynowego.
  • Stosować AutoML. Zdobywają doświadczenie w zastosowaniu narzędzi AutoML dostarczanych przez H2O do automatycznego wyboru najlepszego modelu dla danego zestawu danych.
  • Zrozumieć sieci neuronowe. Zdobywają podstawową wiedzę o historii, strukturze i metodach uczenia sieci neuronowych, a także o różnych typach sieci i ich hiperparametrach.
  • Zrozumieć głębokie sieci neuronowe. Zdobywają wiedzę na temat budowy głębokich sieci neuronowych, różnych typów warstw używanych w tych sieciach, a także ich zalet.
  • Korzystać z biblioteki Keras. Nauczą się korzystać z biblioteki Keras do tworzenia i prototypowania modeli głębokiego uczenia maszynowego. Zrozumieją, jak korzystać z API wysokiego poziomu Kerasa, aby skupić się na projektowaniu i doskonaleniu modeli, a nie na szczegółach technicznych.
  • Zrozumieć konwolucyjne sieci neuronowe. Zdobywają wiedzę na temat konwolucyjnych sieci neuronowych, które są kluczowe dla zastosowań takich jak przetwarzanie i analiza obrazków.
  • Zrozumieć sieci rekurencyjne. Zdobywają wiedzę na temat sieci rekurencyjnych, w tym sieci LSTM i GRU, które są kluczowe dla zastosowań takich jak przetwarzanie języka naturalnego i analiza szeregów czasowych.
  • Wykładowca:

    Prof. UAM dr hab. Tomasz Górecki

    Profesor uczelni w Zakładzie Statystyki Matematycznej i Analizy Danych na Wydziale Matematyki i Informatyki Uniwersytetu im. Adama Mickiewicza w Poznaniu, prodziekan ds. grantów i współpracy z gospodarką na Wydziale Matematyki i Informatyki UAM. Naukowo zajmuje się analizą szeregów czasowych, analizą danych funkcjonalnych oraz sztuczną inteligencją. Zajmuje się również zastosowaniami metod statystycznych i uczenia maszynowego w praktycznych zagadnieniach. Od ponad dwudziestu lat prowadzi zajęcia związane z rachunkiem prawdopodobieństwa, statystyką, uczeniem maszynowym i sztuczną inteligencją. Współpracuje z wieloma firmami na polu uczenia maszynowego i sztucznej inteligencji (Lidl, OLX, PWN, Samsung, Smartstock). Od wielu lat posługuje się językami Python oraz R, jest m.in. współautorem pakietów w R oraz autorem książki “Podstawy statystyki z przykładami w R”. Współpracuje m.in. z pracownikami Colorado State University, University of Utah, Politechniki Poznańskiej, Uniwersytetu Ekonomicznego w Poznaniu oraz Uniwersytetu Przyrodniczego w Poznaniu.

    Moduł 5: Narzędzia AI (10 godzin po 60 min)

    Zagadnienia:

  • Obróbka obrazów i tworzenie grafik (m.in. Microsoft Designer, DeepArt)
  • Tworzenie muzyki (m.in AIVA, Jukedeck)
  • Generowanie tekstów, w tym programów komputerowych (m.in. Talk to Transformer, Articoolo, Copilot)
  • Tłumaczenie tekstów (m.in. DeepL, Google Translate)
  • Rozpoznawanie mowy (m.in. Google Speech-to-Text, Dictation.io
  • Rozpoznawanie obrazów (m.in. Clarifai)
  • Efekty kształcenia:


    Po ukończeniu kursu uczestnicy będą posiadać solidne podstawy dotyczące sztucznej inteligencji, w tym zrozumienie jej koncepcji, technik i zastosowań. Kurs pozwoli im nauczyć się korzystać z różnych narzędzi i technologii wykorzystujących sztuczną inteligencję. Będą posiadać praktyczne umiejętności wykorzystywania sztucznej inteligencji w różnych dziedzinach: obróbka obrazów, tworzenie grafik, edycja dźwięku, tworzenie tekstów, tłumaczenia, rozpoznawania mowy i rozpoznawania obrazów, które będą mogli użyć w tworzeniu swoich własnych projektów. Dzięki praktycznym ćwiczeniom i eksperymentom, które uczestnicy wykonają podczas kursu, będą mieli możliwość odkrywania różnych funkcji narzędzi i testowania ich w praktyce. To pozwoli im zdobyć wiedzę na temat możliwości i ograniczeń sztucznej inteligencji. Kurs zapewni im solidne fundamenty i umiejętności, które pozwolą na samodzielną naukę i rozwijanie się w tematach związanych ze sztuczną inteligencją oraz eksplorowania nowych narzędzi, technologii i trendów w tej dynamicznej dziedzinie.

    Wykładowca:

    Mgr Adam Mieldzioc

    Studiował matematykę i informatykę na Wydziale Matematyki i Informatyki Uniwersytetu im. Adama Mickiewicza w Poznaniu. Zatrudniony na stanowisku asystenta w Katedrze Metod Matematycznych i Statystycznych Uniwersytetu Przyrodniczego w Poznaniu, a obszarem jego zainteresowań naukowych jest statystyka matematyczna, analiza danych oraz uczenie maszynowe. Pracował również jako programista/analityk danych. Specjalista w dziedzinie programowania w R i Python. Ukończył letnią szkołę “Computation and Modelling” prowadzoną w Pythonie na Politechnice Wrocławskiej. Prowadzi zajęcia m.in. z programowania, co wykorzystuje w swoich badaniach naukowych oraz w swojej rozprawie doktorskiej pt. „Regularyzacja i estymacja macierzy kowariancji o strukturze liniowej”. Prelegent poznańskiej grupy użytkowników R (PAZUR) oraz licznych seminariów i konferencji.

    Moduł 6: Tworzenie produktów z użyciem AI (AI product management) (10 godzin po 60 min)

    Zagadnienia:

  • Charakterystyka projektów wykorzystujących IA
  • Praca w zespołach projektowych
  • Zwinne metodyki zarządzania projektami, pojęcia: kanban, shape up, scrum, design thinking, refinement, sprint, demo
  • Planowanie projektów
  • Wykorzystanie narzędzi do zarządzania projektami, takich jak GitHub, Miro,
  • Dobór odpowiednich modeli i algorytmów IA do konkretnych problemów
  • Ewaluacja i testowanie modeli IA
  • Wdrożenie modelu IA
  • Etyka IA, ochrona danych i zrozumienie konsekwencji zastosowań IA.
  • Efekty kształcenia:


    Uczestnicy nabędą wiedzę, jak wykorzystać umiejętności programowania w Pythonie oraz sztucznej inteligencji. W trakcie warsztatów będziemy formułować problemy, stawiać hipotezy oraz organizować pracę w zespoły projektowe adresujące wybrane przez uczestników problemy. Warsztaty nauczą uczestników planowania oraz rozdzielania zadań związanych z realizacją projektów opartych o IA. Uczestnicy warsztatów dowiedzą się jak formułować user stories oraz określać cel projektu oraz wskaźniki jego realizacji. Dowiedzą się również o zagrożeniach i etyce związanej z funkcjonowaniem IA w aplikacjach oraz tego, jak im przeciwdziałać.

    Wykładowca:

    Mgr Damian Tawrel

    Damian Tawrel, product manager, który od lat zajmuje się wykorzystywaniem najnowszych technologii, takich jak uczenie maszynowe, sztuczna inteligencja, do tworzenia innowacji w produktach konsumenckich i biznesowych. Przez przeszło 10 lat pracy w Allegro, dostawcy największego marketplace w Europie Środkowej, zajmował się rozwojem wielu produktów, w tym w szczególności aplikacji mobilnych. Od 2018 roku wraz z zespołem specjalistów współtworzył w Allegro wyszukiwarkę obrazować (visual search). Aktualnie dla firmy LiveChat rozwija zaawansowane systemy oparte o sztuczną inteligencję oraz współpracuje z Xenstats w zakresie dostarczania wiedzy, prowadzenia warsztatów z zakresu wykorzystywania AI do rozwoju usług, procesów i produktów.

    Zapisz się do naszego Newslettera!
    Zapisz się do naszego newslettera i otrzymaj 10% zniżki przy pierwszym zamówienia na jeden z naszych dwudniowych warsztatów, bieżące informacje dotyczące naszych produktów i usług oraz nowości ze świata bioinformatyki!
    icon