Enthusiastische Data-Science-Expertin mit Fähigkeiten in den Bereichen Datenanalyse, maschinelles Lernen und statistische Modellierung. Beherrscht Python, SQL und Datenvisualisierungstools, ist versiert in der Implementierung von Algorithmen des maschinellen Lernens und in der Gewinnung von Erkenntnissen aus komplexen Datensätzen. Zeigt eine ausgeprägte Fähigkeit, analytische Fähigkeiten und kritisches Denken anzuwenden, um Probleme zu lösen und Geschäftsprozesse zu optimieren. Ausgezeichnete Kommunikations- und Kollaborationsfähigkeiten und Leidenschaft für kontinuierliches Lernen im sich schnell entwickelnden Bereich der Datenwissenschaft.
Mathematikanalyse I und II
Statistical Modeling & Inference
Model Evaluation & Validation
Fundamental Machine Learning Technique
S Python SQL Programming
Data Cleaning & Preprocessing
Basic Big Data Technologies
LATEX
MATLAB Programming
Data Analytics & Data Science Certification (Stackfuel, Remote) Durchführung umfassender Datenanalysen und Implementierung von Projekten im Bereich machine Learning mit Python. Verwendete Pandas für die Datenverarbeitung, Matplotlib und Pandas für die Datenvisualisierung und APIs für die Sammlung externer Daten. Anwendung von überwachten und unüberwachten Lerntechniken mit sklearn, Entwicklung neuronaler Netze mit Keras und Verwaltung von Big Data mit Pyspark und SparkSQL. • Konzeption effizienter Datenpipelines, Identifizierung von Ausreißern und Erstellung robuster Modelle für genaue Datenvorhersagen. • Fertigstellung eines unabhängigen Abschlussprojekts, das die Beherrschung der Modellinterpretation, der Datenvisualisierung und des Codehostings auf GitHub unter Beweis stellt.
Data Analytics & Data Science Certification (Stackfuel, Remote) Durchführung umfassender Datenanalysen und Implementierung von Projekten im Bereich machine Learning mit Python. Verwendete Pandas für die Datenverarbeitung, Matplotlib und Pandas für die Datenvisualisierung und APIs für die Sammlung externer Daten. Anwendung von überwachten und unüberwachten Lerntechniken mit sklearn, Entwicklung neuronaler Netze mit Keras und Verwaltung von Big Data mit Pyspark und SparkSQL. • Konzeption effizienter Datenpipelines, Identifizierung von Ausreißern und Erstellung robuster Modelle für genaue Datenvorhersagen. • Fertigstellung eines unabhängigen Abschlussprojekts, das die Beherrschung der Modellinterpretation, der Datenvisualisierung und des Codehostings auf GitHub unter Beweis stellt.