Równania fizyki matematycznej
Formułowanie zadań dla równań typu parabolicznego. Zasada maksimum i jej konsekwencje. Metoda separacji zmiennych. Równania Laplace’a i Poissona. Funkcje harmoniczne. Formuły Greena i ich konsekwencje. Podstawowe metody rozwiązywania zadań brzegowych. Równanie drgań oraz formułowanie zadań dla równań typu hiperbolicznego. Wzór D’Alemberta i jego konsekwencje. Metoda separacji zmiennych. Zadanie z danymi na charakterystykach.

Analiza funkcjonalna
Wykładane są początkowe rozdziały analizy funkcjonalnej: teoria miary i całki Lebesgue’a, przestrzenie Banacha i Hilberta, operatory liniowe, teoria Fredholma, elementy teorii spektralnej.

Modele probabilistyczne
Celem kursu „Modele probabilistyczne” jest poznanie zasad doboru modeli matematycznych rzeczywistych zjawisk i procesów zachodzących w warunkach stochastycznej niepewności. Podstawowy nacisk kładziony jest na opis aproksymacji asymptotycznych i podejście entropijne. Znaczna uwaga poświęcona jest dyskusji warunków stosowalności modeli probabilistycznych i w szczególności twierdzeń granicznych teorii prawdopodobieństwa. Omawiane są uogólnienia klasycznych twierdzeń granicznych na próbki o losowej liczebności. Jako przykład do konkretnych zadań stosowanych konstruowane są probabilistyczne modele procesów ewolucji indeksów finansowych.

Metody uczenia maszynowego

Kurs „Metody uczenia maszynowego” poświęcony jest nowoczesnym metodom przetwarzania i analizy danych, a także zadaniom prognozowania zmiennej rzeczywistej (regresja), zmiennej dyskretnej (klasyfikacja). Ponadto, w kursie rozważane są takie podstawowe zadania uczenia nadzorowanego jak klasteryzacja i redukcja wymiarowości. Badane są metody ich rozwiązywania — zarówno klasyczne, jak i nowe, stworzone w ciągu ostatnich 10-15 lat. Rozważane są zaawansowane metody ansamblowania (XGBoost, CatBoost, stacking itd.). Studenci mają również możliwość zapoznania się z bayesowską teorią klasyfikacji. Nacisk położony jest na głębokie zrozumienie podstaw matematycznych, wzajemnych powiązań, zalet i ograniczeń omawianych metod. Program kursu przeznaczony jest dla studentów już zaznajomionych z podstawami algebry liniowej, analizy matematycznej, teorii prawdopodobieństwa. Znajomość statystyki matematycznej, metod optymalizacji i języka programowania Python jest pożądana, lecz nieobowiązkowa.

Metody optymalizacji
Dla zadań optymalizacji w przestrzeni Hilberta omawiane są zagadnienia istnienia rozwiązań optymalnych, warunki konieczne i wystarczające optymalności w formie nierówności wariacyjnej oraz reguły mnożników Lagrange’a. Badane są podstawowe metody iteracyjne przybliżonego rozwiązywania zadań optymalizacyjnych: metody gradientowe, Newtona, karne, a także metoda simplex dla zadań programowania liniowego; badane są własności ich zbieżności. Wykładane są podstawy teorii dualności, a także główne idee, formułowania i schematy zastosowania zasady maksimum L.S. Pontriagina do zadań sterowania optymalnego oraz metody regularizacji A.N. Tichonowa do źle postawionych zadań optymalizacyjnych.

Sterowanie optymalne
Roczny kurs „Sterowanie optymalne” prowadzi się w semestrach 5 i 6.
W semestrze 5 analizowana jest liniowa „szybkościowa” (czasowa) analiza zadania. Za pomocą aparatu funkcji wspornikowych badane są klasyczne zagadnienia sterowania optymalnego: sterowalność, twierdzenie o istnieniu sterowania optymalnego, warunki konieczne optymalności w formie zasady maksimum L.S. Pontriagina, warunki wystarczające optymalności. Otrzymane wyniki stosowane są do analizy liniowego zadania sterowania optymalnego z funkcjonałem terminalnym i wolnym prawym końcem.
W semestrze 6 studiowane jest nieliniowe zadanie sterowania optymalnego z funkcjonałem całkowym. Formułowane i dowodzone jest twierdzenie o warunkach koniecznych optymalności z zastosowaniem techniki wariacji Mack­Sheana. Na przykładzie nieliniowego zadania „szybkości” szczegółowo omawiane są idee metody programowania dynamicznego. Rozważane są różne przykłady zadań sterowania optymalnego, w tym zadania ze szczególnymi reżimami oraz zadania na przedziale nieograniczonym czasu.

Podstawy cybernetyki

Kurs „Podstawy cybernetyki” (wcześniej „Elementy cybernetyki”), którego twórcą i głównym wykładowcą był czł.-korr. PAN S.W. Jabłoński, prowadzi się na Wydziale MAT-INFORMATYKA od pierwszych lat jego istnienia. Jest on kontynuacją kursu „Matematyka dyskretna” i poświęcony jest przedstawieniu podstawowych modeli, metod i wyników matematycznej cybernetyki związanych z teorią dyskretnych systemów sterowania (SS), zadaniem schematycznej lub strukturalnej realizacji funkcji i algorytmów dyskretnych. W kursie rozważane są różne klasy SS (schematy), stanowiące dyskretne matematyczne modele różnych typów układów elektronicznych, systemów przetwarzania informacji i sterowania, algorytmów i programów. Dla podstawowych klas SS (schematy z elementów funkcjonalnych, formuł, schematy stykowe, automatyczne schematy), a także niektórych innych typów SS, stawiane i analizowane są podstawowe zadania teorii SS: zadanie minimalizacji form normalnych (DNF), zadanie przekształceń równoważnych i modelowania strukturalnego SS, zadanie syntezy SS, zadanie zwiększania niezawodności i kontroli SS z niewiarygodnych elementów i inne. W programie kursu zawarte są klasyczne wyniki K. Shannona, S.W. Jabłońskiego, Y.I. Żu­raw­lewa i O.B. Lupanowa, a także niektóre wyniki ostatnich lat. Pokazywana jest możliwość praktycznego zastosowania tych wyników na przykładzie projektowania układów VLSI, które stanowią podstawę programowo-sprzętowej realizacji algorytmów.

Fizyka statystyczna
Kurs poświęcony jest wprowadzeniu do fizyki statystycznej, badającej podstawowe prawidłowości zachowania układów makroskopowych, tj. ciał składających się z ogromnej liczby cząstek – atomów i cząsteczek. Kurs obejmuje działy termodynamiki, fizyki molekularnej i fizyki statystycznej. Główna uwaga poświęcona jest badaniu procesów równowagowych: początki termodynamiki, główne rozkłady fizyki statystycznej, entropia, potencjały termodynamiczne, suma statystyczna, rzeczywiste gazy. Końcowa część kursu poświęcona jest przedstawieniu teorii fluktuacji i podstaw fizycznej kinetyki.

Matematyczne podstawy teorii prawdopodobieństwa
Celem kursu „Matematyczne podstawy teorii prawdopodobieństwa” jest poznanie podstawowych wiadomości z teorii miary i całkowania, niezbędnych w teorii prawdopodobieństwa, oraz najważniejszych wyników probabilistycznych, głębszych i bardziej złożonych niż te wykładane w podstawowym kursie „Teoria prawdopodobieństwa i statystyka matematyczna”, prowadzonym w semestrach 3 i 4. Głębokie studium teorii prawdopodobieństwa i statystyki matematycznej obecnie nie jest możliwe bez stałego odwoływania się do teorii miary. Do tradycyjnego materiału z teorii miary i całkowania dodano różne twierdzenia o konstrukcji prawdopodobieństwa przez kontynuację z półalgebry na sigma-algebrę i jej uzupełnianie, z iloczynów skończonych przestrzeni na iloczyny nieskończone (twierdzenie Andrey Kolmogorova). Badane są przestrzenie L p i L p. Kurs kończy się dowodem słynnego twierdzenia Yu.V. Prokhorova o związku między gęstością a względną zwartością rodziny miar probabilistycznych.

Ekonomia
Celem przedmiotu jest kształtowanie u studentów myślenia ekonomicznego i pełnego obrazu procesów i zjawisk życia gospodarczego, jego problemów i sposobów ich rozwiązywania. Zadania: zapoznanie studentów z podstawowymi kategoriami i instytucjami ekonomicznymi; pokazanie prawidłowości rozwoju gospodarczego; ukazanie specyfiki działania przedsiębiorstwa i gospodarstwa domowego w warunkach współczesnej gospodarki mieszanej; zapoznanie studentów z podstawami właściwego zachowania finansowego; ukazanie potrzeby i zadań regulacji państwowej w warunkach gospodarki otwartej.

Metody numeryczne
Ten kurs ma na celu rozwijanie umiejętności studentów w rozwiązywaniu typowych zadań algebraicznych, analizy matematycznej, równań różniczkowych zwyczajnych i równań w cząstkowych pochodnych. Rozważane są te metody, które przeszły próbę czasu i są stosowane do rozwiązywania rzeczywistych zadań aplikacyjnych. Ustanawiane są związki między różnymi działami matematyki i metodami numerycznymi. Materiał teoretyczny ilustrowany jest na wykładach przykładami z wynikami obliczeń.

Procesy stochastyczne
W ramach tego kursu rozważane są podstawowe modele teorii procesów stochastycznych takie jak łańcuchy Markowa z czasem dyskretnym i ciągłym, teoria korelacji procesów losowych, całka stochastyczna, liniowe stochastyczne równania różniczkowe, procesy stacjonarne. Bardziej szczegółowo badane są własności procesu Wienera i procesu Poissona. W drugiej części kursu rozważane są niektóre zadania aplikacyjne teorii procesów losowych: liniowe przekształcenia procesów stacjonarnych oraz zadania dotyczące najlepszej liniowej estymacji (prognoza i filtracja).

Dodatkowe rozdziały statystyki matematycznej

Celem kursu „Dodatkowe rozdziały statystyki matematycznej” jest poznanie zasad wyboru modeli statystycznych rzeczywistych zjawisk i procesów zachodzących w warunkach stochastycznej niepewności. Podstawowy nacisk kładziony jest na opis nowoczesnych podejść statystycznych stosowanych w analizie rzeczywistych danych i szeroko wykorzystywanych w statystyce stosowanej. Znaczna uwaga poświęcona jest dyskusji warunków stosowalności modeli probabilistycznych i w szczególności twierdzeń granicznych teorii prawdopodobieństwa. Omawiane są uogólnienia klasycznych twierdzeń granicznych na próbki o losowej liczebności. Jako przykład do konkretnych zadań stosowanych konstruowane są statystyczne modele procesów działalności firm ubezpieczeniowych.

4 rok
Modele matematyczne w ekonomii
Celem tego kursu jest zapoznanie słuchaczy z różnymi modelami matematycznymi w ekonomii, takimi jak model bilansu międzygałęziowego, model planowania gospodarczego i optymalnego wzrostu gospodarczego, model równowagi konkurencyjnej, oraz z niektórymi działami matematyki takimi jak teoria macierzy nieujemnych i jej zastosowania w ekonomii.

Teoria gier i badanie operacji

Kurs podzielony jest na trzy części. W pierwszej przedstawiana jest teoria gier antagonistycznych, twierdzenia o istnieniu punktów siodłowych, własności optymalnych strategii mieszanych, metody rozwiązywania gier macierzowych i wypukłych ciągłych w strategiach mieszanych, prezentowane są klasyczne modele gier („atak-obrona” i pojedynki), rozważane są wieloetapowe gry z pełną informacją. W drugiej części rozważane są gry nieantagonistyczne dwóch i wielu graczy. Główne jej działy: istnienie i metody wyszukiwania sytuacji równowagi (w tym w strategiach mieszanych dla gier bimacierzowych), optymalne strategie gracza-lidera w grach hierarchicznych dwóch osób. W trzeciej części przedstawiana jest teoria podejmowania decyzji: wielokryterialna optymalizacja, jądra relacji binarnych, ogólny model operacji i podejście do jego badania na podstawie zasady wyniku zagwarantowanego, warunki konieczne dla optymalnych strategii i niektóre zadania optymalnego rozdziału zasobów.

Dodatkowe rozdziały matematyki dyskretnej i cybernetyki
Kurs składa się z czterech części. W pierwszej części przedstawiane są podstawy teorii funkcji logiki wielowartościowej. Udowadniane są kryteria kompletności i ustalane są istotne różnice funkcji logiki wielowartościowej od funkcji boolowskich. W drugiej części studiowane są ograniczono-deterministyczne (automatowe) funkcje. Główna uwaga poświęcona jest sposobom określania funkcji automatowych: drzewom, równaniom kanonicznym, diagramom Moore’a i schematom z elementów automatowych. Trzecia część poświęcona jest maszynom Turinga i funkcjom obliczalnym. Udowadniana jest obliczalność funkcji częściowo rekurencyjnych. W czwartej części udowadniane jest twierdzenie L. R. Forda i D. R. Fulkersona o maksymalnym przepływie w sieci.

Bazy danych

Kurs rozpoczyna się od omówienia podstawowych pojęć systemów zarządzania bazami danych (SZBD). Wyróżnione są kluczowe różnice SZBD-ów od systemu plików oraz główne cechy takich modeli danych po-relacyjnych jak model hierarchiczny, sieciowy i model danych obróconych tabel. Następnie omawiany jest model relacyjny danych (włącznie z mechanizmami manipulacji) i teoria projektowania relacyjnych BD w oparciu o procedurę normalizacji. Po tym opisywany jest proces projektowania BD z użyciem diagramów „encja-związek” i diagramów klas języka UML oraz rozważane są modele danych post-relacyjne: model obiektowo-zorientowany, obiektowo-relacyjne rozszerzenia SQL, „prawdziwy” model relacyjny. W ramach kursu omawiane są także podstawowe narzędzia języka SQL do definiowania i zmiany schematu bazy danych, wybierania i modyfikacji danych, autoryzacji dostępu i zarządzania transakcjami.

Superkomputery i równoległe przetwarzanie danych
Ten kurs skierowany jest na zdobycie podstawowej wiedzy i praktycznych umiejętności w zakresie obliczeń równoległych, metod równoległego przetwarzania danych, technologii programowania równoległego i technologii superkomputerowych. Materiał ilustrowany jest przykładami systemów superkomputerowych i technologii, gdzie równoległość przejawia się szczególnie wyraźnie. Jednocześnie pokazana jest wyjątkowo istotna rola systemów superkomputerowych jako integralnej części kształtującej się gospodarki cyfrowej. W procesie wykładu omawiane są trzy składowe obliczeń równoległych: architektury równoległych systemów obliczeniowych, technologie programowania równoległego i struktura informacyjna programów i algorytmów, i pokazana jest ścisła zależność między tymi częściami.

Kultura językowa
Celem opanowania przedmiotu jest zapoznanie studentów z kulturą językowo-krajową jako istotną częścią przygotowania nowoczesnych specjalistów. Przygotowanie zawodowe specjalistów obejmuje doskonalenie umiejętności przekładu, które są niemożliwe bez znajomości specyficznych warunków socjokulturowych funkcjonowania języka obcego. Kultura językowa jest nieodłączną częścią profesjonalizmu translacyjnego i komunikacji biznesowej.

Dodatkowe rozdziały procesów losowych
Celem kursu jest w przystępnej formie zaznajomić uczestnika z podstawami teorii procesów losowych, teorii martingałów i całkowania stochastycznego. W pierwszej części kursu (siódmym semestrze) omawiane są ogólne podstawy teorii procesów losowych, procesy z niezależnymi przyrostami, w szczególności proces Browna i proces Poissona. W drugiej części kursu (ósmym semestrze) omawiana jest teoria martingałów, teoria całkowania stochastycznego oraz podstawy stochastycznych równań różniczkowych.

Zastosowania praktyczne teorii prawdopodobieństwa

Celem kursu jest poznanie zasad zastosowania modeli stochastycznych w rzeczywistej praktyce. Rozważane są różne sytuacje życiowe, do opisu których najbardziej odpowiednie są modele oparte na zastosowaniu metod teorii prawdopodobieństwa. Jako główne narzędzie badawcze stosowane są pojęcia związane z aktuarialną matematyką, której studiowanie nie jest możliwe bez budowy modeli stochastycznych. Jako przykłady konkretnych zadań stosowanych konstruowane są probabilistyczne modele dla ubezpieczeń ryzykownych. Udowadniany jest szereg fundamentalnych twierdzeń leżących u podstaw nowoczesnej teorii ryzyka. Szczególna uwaga poświęcona jest metodom zastosowania i analizy procesów stochastycznych dwukrotnie i trzykrotnie stochastycznych.

Pakiety programów stosowanych
Kurs poświęcony jest przeglądowi nowoczesnego oprogramowania matematycznego stosowanego w badaniach matematycznych. Przedstawione są główne możliwości pakietów, ich cechy techniczne, przykłady zastosowań w różnych dziedzinach matematyki.

Metody jednowymiarowej i wielowymiarowej analizy statystycznej
Rozważane są różne metody probabilistyczno-statystyczne przetwarzania i analizy danych. Opisane są charakterystyczne etapy i zadania przetwarzania obserwacji, metody ich rozwiązania, dostępne implementacje programowe. W semestrze jesiennym (metody jednowymiarowej analizy statystycznej) omawiane są zadania testowania przypadkowości, niezależności i jednorodności (w tym – niezależne od rozkładu, dla dowolnego rozkładu ciągłego danych), oraz różne testy zgodności, badanie danych pod kątem normalności, teoria i praktyka zastosowania metod regresji wielokrotnej. Najczęściej stosowane metody wielowymiarowej analizy statystycznej omawiane są w semestrze wiosennym. Są to zagadnienia komputerowej realizacji metody najmniejszych kwadratów, nieliniowej analizy regresji. Przedstawione są metody badania struktury związków korelacyjnych: analiza korelacyjna, analiza kanonicznych korelacji. Wprowadzenie liniowego modelu danych w metodzie głównych składowych i analizie czynnikowej znacznie ułatwia analizę współzależności składników wielowymiarowych zmiennych losowych. Omówiona jest metoda analizy dyskryminacyjnej, przy której dane przyporządkowywane są do jednej z kilku populacji.

Ankieta
Napisz swoją opinię na ten temat. Ciekawe komentarze publikujemy na stronie.