Beschleunigtes Zertifikatsprogramm: Data Science
University of California, Irvine - Division of Continuing Education
Schlüsselinformation
Campus-Standort
Irvine, Vereinigte Staaten von Amerika
Sprachen
Englisch
Studienformat
Auf dem Campus
Dauer
3 Monate
Tempo
Vollzeit
Studiengebühren
USD 7.900 / per course *
Bewerbungsschluss
Infos anfordern
frühestes Startdatum
Infos anfordern
* ungefähre Gesamtkosten: 14.100 USD, ohne Flugpreis; Praktikumsgebühren: 2.900 $
Einführung
Überblick
Data Science wird kontinuierlich als einer der gefragtesten Berufe eingestuft. Der Bedarf an Fachleuten, die Erkenntnisse aus Daten verwalten und nutzen können, ist klarer als je zuvor. Der in diesem Programm unterrichtete Lehrplan ist auf die wachsenden multidisziplinären Bedürfnisse von Datenfachleuten zugeschnitten. Das Programm deckt eine breite Palette von Themen ab und befasst sich mit der Vielzahl von Fähigkeiten, die für die Arbeit an erfolgreichen datenbasierten Projekten erforderlich sind. Zu den behandelten Themen gehören datengesteuerte Erkennung und Vorhersage, Datenentwicklung in großem Maßstab (Überprüfen, Bereinigen, Transformieren und Modellieren von Daten), strukturierte und unstrukturierte Daten, Berechnungsstatistiken, Mustererkennung, Data Mining, Datenvisualisierung, Datenbanken, SQL, Python-Programmierung, und maschinelles Lernen.
Das dreimonatige Accelerated Certificate Program (ACP) von UC Irvine für Postgraduierte in Data Science deckt eine breite Palette von Themen in Data Science ab, einschließlich datengesteuerter Ermittlung und Vorhersage, Data Engineering in großem Maßstab (Überprüfen, Reinigen, Transformieren und Modellieren von Daten). , strukturierte und unstrukturierte Daten, Computerstatistiken, Mustererkennung, Data Mining, Datenvisualisierung, Datenbanken, SQL, Python und maschinelles Lernen.
Leistungen
- Verwenden Sie technische Techniken, um Einblicke und Business Intelligence zu liefern.
- Wenden Sie mathematische Konzepte wie Wahrscheinlichkeit, Inferenz und Modellierung auf die praktische Datenprojektanwendung an.
- Beschreiben und Verwenden von branchenüblichen Tools und Technologien, die zum Modellieren und Analysieren großer Datenmengen erforderlich sind.
- Verwenden Sie den Datenmodellierungsansatz, um eine optimale Geschäftsentscheidung zu treffen.
- Implementieren Sie Algorithmen für maschinelles Lernen.
- Wenden Sie Textanalyse-Tools auf unstrukturierte und strukturierte Datensätze an.
- Entwickeln und implementieren Sie einen Data Warehouse-Plan.
- Verschaffen Sie sich durch ein Praktikum in einem US-Unternehmen einen Wettbewerbsvorteil auf dem globalen Arbeitsmarkt.
Wer sollte teilnehmen
Dieses Programm richtet sich an Fachleute in einer Vielzahl von Branchen und Berufsfunktionen, die ihrem Unternehmen helfen möchten, die enormen Mengen unterschiedlicher Daten, die sie sammeln, zu verstehen und zu nutzen. Andere, die von diesem Programm profitieren würden, sind Dateningenieure, Datenanalysten, Informatiker, Geschäftsanalysten, Datenbankadministratoren, Forscher und Statistiker.
Zertifikatanforderungen
Um ein Zertifikat an der UCI Division of Continuing Education zu erhalten, müssen die Studenten alle erforderlichen Kurse mit einer Note von "C" oder besser abschließen.
Lehrplan
Praktische Mathematik und Statistik für Data Science
Praktische Mathematik und Statistik bilden die Grundlage für die Bereiche Data Science und Predictive Analytics. Statistiken werden in allen Bereichen der Geschäfts-, Wissenschafts- und institutionellen Datenverarbeitung verwendet. Dieser Kurs behandelt grundlegende statistische Fähigkeiten, die für Data Science und Predictive Analytics erforderlich sind. Dies ist ein anwendungsorientierter Kurs und der Ansatz ist praktisch. Die Studierenden werfen einen Blick auf verschiedene statistische Techniken und diskutieren Situationen, in denen jede Technik angewendet wird, die von jeder Methode getroffenen Annahmen, die Einrichtung der Analyse sowie die Interpretation der Ergebnisse. Dieser Kurs beginnt mit einer Einführung in die Datenanalyse. Als nächstes behandelt der Kurs die grundlegenden Konzepte der deskriptiven Statistik, Wahrscheinlichkeits- und Inferenzstatistik, einschließlich des zentralen Grenzwertsatzes und des Hypothesentests. Von dort aus konzentriert sich der Kurs auf verschiedene statistische Tests, einschließlich des Chi-Quadrat-Tests auf Unabhängigkeit, T-Tests, Korrelation, ANOVA, lineare Regression, Zeitreihen und Anwendung zuvor erlernter Techniken in neuen Situationen.
Einführung in die Python-Programmierung
Einführung in Python ist eine Einführung in die Programmierung mit Python für Anfänger. Dieser Kurs richtet sich an Personen ohne Programmiererfahrung und ohne technischen Hintergrund. Es ist für diejenigen, die eine sanfte Einführung wünschen. Nach diesem Kurs möchten die Schüler möglicherweise einen fortgeschritteneren oder fortgeschritteneren Python-Kurs belegen. Oder sie fühlen sich sicher genug, um selbstständig zu lernen. Wenn Sie keinen Hintergrund in Python haben, aber einen guten Hintergrund in Java, C oder einer anderen Sprache, kann sich dieser Kurs für Sie langsam anfühlen. Die Schüler lernen Folgendes: Verwendung von Variablentypen, Flusssteuerung und Funktionen, Interaktion mit dem System über Python, Schreiben einfacher Skripte zur Textverarbeitung und Verwendung von Jupyter, einem beliebten Entwicklungstool für Python.
Grundlagen der Datenwissenschaft
Ziel dieses Kurses ist es, die Datenwissenschaft zu entmystifizieren und die Schüler mit den wichtigsten Fähigkeiten, Techniken und Konzepten der Datenwissenschaftler vertraut zu machen. Ausgehend von grundlegenden Konzepten wie der Taxonomie der Analytik, dem branchenübergreifenden Standardprozess für Data Mining und der Datendiagnostik wird der Kurs fortgesetzt, um die Datenwissenschaft mit klassischen statistischen Techniken zu vergleichen. Ein Überblick über die in der Datenwissenschaft am häufigsten verwendeten Techniken, einschließlich Datenanalyse, statistische Modellierung, Datenentwicklung, relationale Datenbanken, SQL und NoSQL, Manipulation von Daten im Maßstab (Big Data), Algorithmen für Data Mining, Datenqualität, Korrektur und Konsistenzoperationen werden abgedeckt.
Daten Engineering
Dieser Kurs soll die Kenntnisse der Schüler in den Bereichen Datenentwurf, Datenmanagement, Data Warehouse, Datenmodellierung und Manipulation von Abfragen verbessern. Zu den Themen gehören Techniken und Methoden zur Identifizierung, Extraktion und Aufbereitung von Daten für die Verarbeitung mit Datenbanksoftware. Verschaffen Sie sich einen Überblick über die grundlegenden Techniken des Data Engineering, einschließlich Datennormalisierung, Data Engineering, relationale und nicht relationale Datenbanken, SQL und NoSQL, Manipulation von Daten im Maßstab (Big Data) und Algorithmen für Datenoperationen. Die Schüler arbeiten in Teams an einem Abschlussprojekt, um die Ergebnisse in einem realen Big Data-Datensatz zu untersuchen, zu analysieren, zusammenzufassen und zu präsentieren.
Erweiterte Visualisierung
Die Visualisierung spielt eine grundlegende Rolle beim Verständnis von Eigenschaften und Beziehungen in Daten, um Erkenntnisse zu gewinnen und Ergebnisse zu kommunizieren. Unabhängig davon, ob die Analyse beschreibend, diagnostisch, vorschreibend oder proskriptiv ist, ist die Visualisierung während jedes Analysezyklus von entscheidender Bedeutung. Dieser Kurs konzentriert sich auf die Anwendung verschiedener Methoden und Techniken auf verschiedene Phasen des Analysezyklus, z. B. während der Datenaufbereitung, Modellierung und Berichterstellung. Die Studierenden lernen Techniken zur Visualisierung von univariaten, multivariaten, zeitlichen, textbasierten, hierarchischen und netzwerk- / graphbasierten Daten sowohl in der Ad-hoc-Analyse als auch in der automatisierten Generierung.
Big Data Analyse
Unternehmen verwenden Technologien wie MapReduce, Hadoop, Yarn und Apache Spark, um Wert aus Big Data zu ziehen. Dieser Kurs bietet einen detaillierten Überblick über Hadoop und Spark, die Eckpfeiler der Big Data-Verarbeitung. Um die Konzepte hinter Hadoop und Spark zu kristallisieren, werden die Schüler eine Reihe kurzer, konzentrierter Übungen durcharbeiten. Zu den behandelten Konzepten gehören die Hadoop-Architektur, das Apache Spark Big Data Framework, die Datenaufnahme, die verteilte Verarbeitung und die funktionale Programmierung. Darüber hinaus lernen die Schüler, wie sie einen Hadoop-Cluster konfigurieren und installieren, grundlegende MapReduce-Programme schreiben, erweiterte MapReduce-Programmierpraktiken anwenden und Schnittstellen wie Pig und Hive für die Interaktion mit Hadoop verwenden.
Praktika
Als optionaler letzter Kurs und gegen eine zusätzliche Gebühr von 2.900 USD haben Sie die Möglichkeit, 10 Wochen lang akademische Theorie anzuwenden und praktische Erfahrungen in einer Vielzahl von Unternehmen und Branchen zu sammeln. Ein Forschungsprojekt bietet zusätzliche Schulungen. Zum Praktikum gehören auch die Workshops Resume Development und Interviewing Skills.
Zeitplan
Die Schüler werden in einen Zeitplan für Morgen (9: 00-12: 00 Uhr) oder Nachmittag (13: 00-16: 00 Uhr) versetzt. Die Kurse im Programm werden nacheinander absolviert, wobei einer abgeschlossen wird, bevor mit dem nächsten fortgefahren wird. Zeitpläne werden nicht garantiert und können sich ändern. Ein endgültiger Zeitplan wird am ersten Tag des Programms zur Verfügung gestellt.
* Wir sind uns bewusst, dass dies für viele unserer Studenten und ihre Familien eine herausfordernde Zeit ist. Daher freuen wir uns, 25% Rabatt auf die ACP-Studiengebühren im Winter 2021 und 33% Rabatt auf die Studiengebühren für die Anmeldung zu den Remote-ACP-Kursen für das Frühjahr 2021 anbieten zu können.
Lehrplan
Lehrplan
Praktische Mathematik und Statistik für Data Science
Praktische Mathematik und Statistik bilden die Grundlage der Bereiche Data Science und Predictive Analytics. Statistiken werden in allen Bereichen der Wirtschaft, Wissenschaft und institutionellen Datenverarbeitung eingesetzt. Dieser Kurs behandelt grundlegende statistische Fähigkeiten, die für Data Science und Predictive Analytics erforderlich sind. Der Studiengang ist anwendungsorientiert und praxisorientiert. Die Schüler werden einen Blick auf verschiedene statistische Techniken werfen und Situationen diskutieren, in denen man jede Technik anwenden würde, die Annahmen, die von jeder Methode getroffen werden, wie die Analyse aufgebaut wird, sowie wie die Ergebnisse zu interpretieren sind. Dieser Kurs beginnt mit einer Einführung in die Datenanalyse. Als nächstes behandelt der Kurs die grundlegenden Konzepte der deskriptiven Statistik, Wahrscheinlichkeits- und Inferenzstatistik, zu denen der zentrale Grenzwertsatz und das Testen von Hypothesen gehören. Von dort aus konzentriert sich der Kurs auf verschiedene statistische Tests, einschließlich des Chi-Quadrat-Tests auf Unabhängigkeit, t-Tests, Korrelation, ANOVA, lineare Regression, Zeitreihen und die Anwendung zuvor erlernter Techniken in neuen Situationen.
Einführung in die Python-Programmierung
Einführung in Python ist eine Einführung in die Programmierung mit Python für Anfänger. Dieser Kurs richtet sich an Personen, die keine Programmiererfahrung und keinen technischen Hintergrund haben. Es ist für diejenigen, die eine sanfte Einführung wünschen. Nach diesem Kurs möchten die Schüler möglicherweise einen Python-Kurs für Fortgeschrittene oder Fortgeschrittene belegen. Oder sie fühlen sich sicher genug, um selbst mit dem Lernen zu beginnen. Wenn Sie keinen Hintergrund in Python haben, aber gute Kenntnisse in Java, C oder einer anderen Sprache haben, könnte sich dieser Kurs für Sie langsam anfühlen. Die Schüler lernen Folgendes: wie man Variablentypen, Flusssteuerung und Funktionen verwendet, wie man über Python mit dem System interagiert, wie man einfache Skripte schreibt, um Text zu verarbeiten, und wie man Jupyter, ein beliebtes Entwicklungstool für Python, verwendet.
Grundlagen der Datenwissenschaft
Das Ziel dieses Kurses ist es, Data Science zu entmystifizieren und Studenten mit den wichtigsten Fähigkeiten, Techniken und Konzepten von Data Scientists vertraut zu machen. Beginnend mit grundlegenden Konzepten wie Analytik-Taxonomie, dem branchenübergreifenden Standardprozess für Data Mining und Datendiagnostik wird der Kurs dann fortfahren, um Data Science mit klassischen statistischen Techniken zu vergleichen. Ein Überblick über die gängigsten Techniken, die in der Datenwissenschaft verwendet werden, einschließlich Datenanalyse, statistische Modellierung, Data Engineering, relationale Datenbanken, SQL und NoSQL, Manipulation von Daten im großen Maßstab (Big Data), Algorithmen für Data Mining, Datenqualität, Behebung und Konsistenzoperationen werden behandelt.
Datentechnik
Dieser Kurs wurde entwickelt, um die Kenntnisse der Schüler in den Bereichen Datendesign, Datenmanagement, Data Warehouse, Datenmodellierung und Abfragemanipulation zu verbessern. Die Themen umfassen Techniken und Methoden zur Identifizierung, Extraktion und Aufbereitung von Daten für die Verarbeitung mit Datenbanksoftware. Verschaffen Sie sich einen Überblick über die grundlegenden Techniken des Data Engineering, einschließlich Datennormalisierung, Data Engineering, relationale und nicht relationale Datenbanken, SQL und NoSQL, Manipulation von Daten im großen Maßstab (Big Data), Algorithmen für Datenoperationen. Die Studierenden werden in Teams an einem Abschlussprojekt arbeiten, um Ergebnisse in einem realen Big Data Set zu erforschen, zu analysieren, zusammenzufassen und zu präsentieren.
Erweiterte Visualisierung
Die Visualisierung spielt eine grundlegende Rolle beim Verständnis von Eigenschaften und Beziehungen in Daten, um Erkenntnisse zu gewinnen und Ergebnisse zu kommunizieren. Unabhängig davon, ob die Analyse beschreibend, diagnostisch, präskriptiv oder proskriptiv ist, ist die Visualisierung in jedem Analysezyklus unerlässlich. Dieser Kurs konzentriert sich auf die Anwendung verschiedener Methoden und Techniken in verschiedenen Phasen des Analysezyklus, z. B. während der Datenvorbereitung, Modellierung und Berichterstattung. Die Studierenden erlernen Techniken zur Visualisierung von univariaten, multivariaten, zeitlichen, textbasierten, hierarchischen und netzwerk-/graphbasierten Daten sowohl in der Ad-hoc-Analyse als auch in der automatisierten Generierung.
Big-Data-Analyse
Unternehmen nutzen Technologien wie MapReduce, Hadoop, Yarn und Apache Spark, um Wert aus Big Data zu ziehen. Dieser Kurs bietet einen detaillierten Überblick über Hadoop und Spark, die Eckpfeiler der Big-Data-Verarbeitung. Um die Konzepte hinter Hadoop und Spark zu kristallisieren, werden die Schüler eine Reihe von kurzen, fokussierten Übungen durcharbeiten. Zu den behandelten Konzepten gehören Hadoop-Architektur, das Apache Spark Big Data Framework, Datenaufnahme, verteilte Verarbeitung und funktionale Programmierung. Darüber hinaus lernen die Teilnehmer, wie sie einen Hadoop-Cluster konfigurieren und installieren, grundlegende MapReduce-Programme schreiben, fortgeschrittene MapReduce-Programmierpraktiken anwenden und Schnittstellen wie Pig und Hive für die Interaktion mit Hadoop verwenden.
Ideale Studenten
Wer sollte teilnehmen
Dieses Programm richtet sich an Fachleute in einer Vielzahl von Branchen und Berufsfunktionen, die ihrem Unternehmen helfen möchten, die riesigen Mengen an unterschiedlichen Daten, die sie sammeln, zu verstehen und zu nutzen. Andere, die von diesem Programm profitieren würden, sind Dateningenieure, Datenanalysten, Informatiker, Geschäftsanalysten, Datenbankadministratoren, Forscher und Statistiker.
English Language Requirements
Zertifizieren Sie Ihre Englischkenntnisse mit dem Duolingo Englischtest! Der DET ist ein bequemer, schneller und erschwinglicher Online-Englischtest, der von über 4.000 Universitäten (wie dieser) auf der ganzen Welt akzeptiert wird.