University of California, Irvine - Division of Continuing Education
Accelerated Certificate Program: Data Science
Irvine, Stany Zjednoczone
Certyfikat
CZAS TRWANIA
3 miesiąca
JĘZYKI
Język angielski
TEMPO
Pełny etat
TERMIN SKŁADANIA WNIOSKÓW
NAJWCZEŚNIEJSZA DATA ROZPOCZĘCIA
30 Mar 2026
CZESNE
USD 7900 *
FORMACIE STUDIÓW
W kampusie
* przybliżony koszt całkowity: 14 100 USD, bez biletu lotniczego; czesne: $2900
Przegląd
Data Science jest stale uznawana za jedną z najbardziej poszukiwanych profesji. Potrzeba profesjonalistów, którzy potrafią zarządzać i wykorzystywać wgląd w dane, jest wyraźniejsza niż kiedykolwiek wcześniej. Program nauczania w tym programie ma na celu zaspokojenie rosnących interdyscyplinarnych potrzeb specjalistów ds. Danych. Obejmując szeroki wachlarz tematów, program obejmuje szeroki wachlarz umiejętności potrzebnych do pracy nad udanymi projektami opartymi na danych. Omawiane tematy obejmują wykrywanie i przewidywanie oparte na danych, inżynierię danych na dużą skalę (inspekcja, czyszczenie, przekształcanie i modelowanie danych), dane strukturalne i nieustrukturyzowane, statystyki obliczeniowe, rozpoznawanie wzorców, eksplorację danych, wizualizację danych, bazy danych, SQL, programowanie w Pythonie, i uczenie maszynowe.
3-miesięczny podyplomowy Accelerated Certificate Program (ACP) UC Irvine w dziedzinie nauki o danych obejmuje szeroki wachlarz tematów w nauce o danych, w tym wykrywanie i prognozowanie oparte na danych, inżynierię danych na dużą skalę (inspekcja, czyszczenie, przekształcanie i modelowanie danych) , dane ustrukturyzowane i nieustrukturyzowane, statystyki obliczeniowe, rozpoznawanie wzorców, eksploracja danych, wizualizacja danych, bazy danych, SQL, Python i uczenie maszynowe.
Korzyści
- Wykorzystaj techniki techniczne, aby zapewnić wgląd i analizę biznesową.
- Zastosuj pojęcia matematyczne, w tym prawdopodobieństwo, wnioskowanie i modelowanie do praktycznej aplikacji projektu danych.
- Opisywanie i używanie standardowych narzędzi i technologii branżowych wymaganych do modelowania i analizowania dużych zbiorów danych.
- Wykorzystaj podejście do modelowania danych, aby podjąć optymalną decyzję biznesową.
- Wdrażaj algorytmy uczenia maszynowego.
- Zastosuj narzędzia analizy tekstu do nieustrukturyzowanych i ustrukturyzowanych zbiorów danych.
- Opracuj i wdróż plan hurtowni danych.
- Zdobądź przewagę konkurencyjną na globalnym rynku pracy poprzez staż w amerykańskiej firmie.
Wymagania certyfikacyjne
Aby uzyskać certyfikat UC Irvine Division of Continuing Education, studenci muszą ukończyć wszystkie wymagane kursy z oceną "C" lub lepszą.
Praktyki
Jako opcjonalny ostatni kurs i za dodatkową opłatą w wysokości 2900 USD masz możliwość zastosowania teorii akademickiej i zdobycia praktycznego doświadczenia w różnych biznesach i branżach przez 10 tygodni. Projekt badawczy zapewnia dodatkowe szkolenie. W ramach stażu odbywają się również warsztaty Resume Development i Interviewing Skills.
Harmonogram
Uczniowie zostaną umieszczeni w porannym (9: 00-12: 00) lub popołudniowym (13: 00-16: 00) harmonogramie. Kursy w programie odbywają się kolejno, kończąc jeden przed przejściem do następnego. Harmonogramy nie są gwarantowane i mogą ulec zmianie. Ostateczny harmonogram zostanie podany pierwszego dnia programu.
Program
Praktyczna matematyka i statystyka dla nauki o danych
Praktyczna matematyka i statystyka są podstawą dziedzin Data Science i Predictive Analytics. Statystyki są wykorzystywane w każdej dziedzinie biznesu, nauki i przetwarzania danych instytucjonalnych. Ten kurs obejmuje podstawowe umiejętności statystyczne potrzebne do analizy danych i analizy predykcyjnej. Jest to kurs zorientowany na aplikację, a podejście jest praktyczne. Studenci przyjrzą się kilku technikom statystycznym i omówią sytuacje, w których można by zastosować każdą technikę, założenia przyjęte przez każdą metodę, jak skonfigurować analizę, a także jak interpretować wyniki. Kurs rozpoczyna się od wprowadzenia do analizy danych. Następnie kurs obejmuje podstawowe pojęcia statystyki opisowej, prawdopodobieństwa i statystyki wnioskowania, które obejmują centralne twierdzenie graniczne i testowanie hipotez. Stamtąd kurs skupi się na różnych testach statystycznych, w tym teście niezależności Chi-Square, testach t, korelacji, ANOVA, regresji liniowej, szeregach czasowych i stosowaniu wcześniej poznanych technik w nowych sytuacjach.
Wprowadzenie do programowania w Pythonie
Wprowadzenie do języka Python to wprowadzenie do programowania w języku Python dla początkujących. Ten kurs jest przeznaczony dla osób, które nie mają doświadczenia w programowaniu i nie mają wykształcenia technicznego. To jest dla tych, którzy chcą delikatnego wprowadzenia. Po tym kursie uczestnicy mogą chcieć wziąć udział w bardziej zaawansowanym lub zaawansowanym kursie języka Python. Mogą też czuć się na tyle pewni siebie, aby rozpocząć samodzielną naukę. Jeśli nie masz doświadczenia w Pythonie, ale masz dobre doświadczenie w Javie, C lub innym języku, ten kurs może być dla Ciebie wolny. Studenci dowiedzą się, jak używać typów zmiennych, sterowania przepływem i funkcji, jak wchodzić w interakcje z systemem za pośrednictwem Pythona, jak pisać proste skrypty do przetwarzania tekstu oraz jak używać Jupyter, popularnego narzędzia programistycznego dla Pythona.
Podstawy nauki o danych
Celem tego kursu jest wyjaśnienie nauki o danych i zapoznanie studentów z kluczowymi umiejętnościami, technikami i koncepcjami analityka danych. Rozpoczynając od podstawowych pojęć, takich jak taksonomia analityczna, międzybranżowy standardowy proces eksploracji danych i diagnostyka danych, kurs przejdzie następnie do porównania nauki o danych z klasycznymi technikami statystycznymi. Przegląd najpowszechniejszych technik stosowanych w nauce o danych, w tym analiza danych, modelowanie statystyczne, inżynieria danych, relacyjne bazy danych, SQL i NoSQL, manipulacja danymi na dużą skalę (big data), algorytmy eksploracji danych, jakość danych, środki zaradcze i zostaną omówione operacje spójności.
Inżynieria danych
Ten kurs ma na celu zwiększenie biegłości studentów w zakresie projektowania danych, zarządzania danymi, hurtowni danych, modelowania danych i umiejętności manipulowania zapytaniami. Tematy obejmują techniki i metody identyfikacji, ekstrakcji i przygotowania danych do przetwarzania za pomocą oprogramowania bazodanowego. Uzyskaj przegląd podstawowych technik inżynierii danych, w tym normalizacji danych, inżynierii danych, relacyjnych i nierelacyjnych baz danych, SQL i NoSQL, manipulacji danymi na dużą skalę (big data), algorytmów operacji na danych. Studenci będą pracować w zespołach nad końcowym projektem, aby zbadać, przeanalizować, podsumować i przedstawić wyniki w rzeczywistym zbiorze dużych zbiorów danych.
Zaawansowana wizualizacja
Wizualizacja odgrywa fundamentalną rolę w zrozumieniu właściwości i relacji w danych w celu wydobywania spostrzeżeń i przekazywania wyników. Niezależnie od tego, czy analiza ma charakter opisowy, diagnostyczny, nakazowy czy nakazowy, wizualizacja jest niezbędna w każdym cyklu analitycznym. Ten kurs skupi się na stosowaniu różnych metod i technik na różnych etapach cyklu analitycznego, na przykład podczas przygotowywania danych, modelowania i raportowania. Studenci nauczą się technik wizualizacji danych jednowymiarowych, wielowymiarowych, czasowych, tekstowych, hierarchicznych i opartych na sieci / wykresie, zarówno w analizie ad hoc, jak iw generowaniu automatycznym.
Analiza dużych zbiorów danych
Przedsiębiorstwa używają technologii takich jak MapReduce, Hadoop, Yarn i Apache Spark do wydobywania wartości z Big Data. Ten kurs zawiera dogłębny przegląd Hadoop i Spark, podstaw przetwarzania dużych zbiorów danych. Aby skrystalizować koncepcje Hadoop i Spark, uczniowie wykonają serię krótkich, skoncentrowanych ćwiczeń. Omówione koncepcje obejmują architekturę Hadoop, Apache Spark Big Data Framework, pozyskiwanie danych, przetwarzanie rozproszone i programowanie funkcjonalne. Ponadto studenci dowiedzą się, jak skonfigurować i zainstalować klaster Hadoop, pisać podstawowe programy MapReduce, wykorzystywać zaawansowane praktyki programowania MapReduce oraz wykorzystywać interfejsy, takie jak Pig i Hive, do interakcji z Hadoop.
Kto powinien uczęszczać
Ten program jest przeznaczony dla profesjonalistów z różnych branż i stanowisk, którzy chcą pomóc swojej organizacji zrozumieć i wykorzystać ogromne ilości różnorodnych danych, które gromadzą. Inni, którzy skorzystaliby z tego programu, to inżynierowie danych, analitycy danych, informatycy, analitycy biznesowi, administratorzy baz danych, badacze i statystycy.


