Daten-Mining

Daten-Mining ist der Prozess der systematischen Analyse großer Datenmengen, um Muster, Zusammenhänge und nützliche Informationen zu entdecken. Es wird häufig in Bereichen wie Marketing, Finanzanalyse und Forschung eingesetzt, um fundierte Entscheidungen zu treffen und zukünftige Trends vorherzusagen. Durch den Einsatz von Algorithmen und maschinellem Lernen kannst Du Muster in Daten erkennen, die für Menschen oft unsichtbar bleiben würden.

Los geht’s

Lerne mit Millionen geteilten Karteikarten

Leg kostenfrei los

Review generated flashcards

Leg kostenfrei los
Du hast dein AI Limit auf der Website erreicht

Erstelle unlimitiert Karteikarten auf StudySmarter

StudySmarter Redaktionsteam

Team Daten-Mining Lehrer

  • 13 Minuten Lesezeit
  • Geprüft vom StudySmarter Redaktionsteam
Erklärung speichern Erklärung speichern
Inhaltsverzeichnis
Inhaltsverzeichnis

Springe zu einem wichtigen Kapitel

    Daten-Mining einfach erklärt

    Daten-Mining ist ein faszinierendes Thema in der Informatik, das Dir hilft, Muster und nützliche Informationen aus großen Datenmengen zu gewinnen. Es ist entscheidend, um tiefe Einblicke in unterschiedliche Datenquellen zu erlangen und strategische Entscheidungen zu treffen.

    Was ist Daten-Mining?

    Daten-Mining ist der Prozess, bei dem durch die Analyse großer Datenbestände versteckte Muster, interessante Zusammenhänge und nützliche Informationen entdeckt werden. Diese Techniken werden besonders bei der Entscheidungsfindung und der Vorhersage zukünftiger Trends verwendet.

    Ein essenzieller Teil des Daten-Mining ist der Algorithmus. Verschiedene Algorithmen wie k-Means-Clustering oder Entscheidungsbäume ermöglichen es Dir, Daten zu clustern, zu klassifizieren oder Assoziationsregeln zu identifizieren. Betrachte die Formel für einen k-Means-Algorithmus, der die Zentren der Cluster berechnet:

    \[ \text{min} \sum_{i=1}^{k} \sum_{x \, \in \, C_i} \| x - \mu_i \|^2 \]

    Hierbei stehen \(C_i\) für die Cluster und \(\mu_i\) für die Clusterzentren.

    Daten-Mining kann sowohl auf strukturierten als auch unstrukturierten Daten angewendet werden.

    Ein Beispiel für Daten-Mining ist die Analyse von Verkaufsdaten im Einzelhandel. Stell Dir vor, Du entdeckst mithilfe von Daten-Mining, dass Kunden, die Windeln kaufen, häufig auch Bier kaufen. Diese interessante Erkenntnis könnte darauf zurückzuführen sein, dass Personen mit kleinen Kindern geneigt sind, auch Bier für sich selbst zu kaufen. Solche Muster nützen Geschäften zur optimalen Positionierung von Waren.

    Bedeutung von Daten-Mining

    Die Bedeutung von Daten-Mining erstreckt sich über viele Branchen und Bereiche. In der Geschäftswelt beispielsweise hilft es, verborgene Muster im Kundenverhalten aufzudecken, um maßgeschneiderte Marketingstrategien zu entwickeln. Dies führt zur Verbesserung der Kundenzufriedenheit und Loyalität.

    In der Medizin kann Daten-Mining dazu genutzt werden, neue Krankheitsmuster zu erkennen oder die Wirksamkeit von Behandlungen zu überprüfen. Analysen von Genomanalysen oder großen Patientendatenbanken können wertvolle Erkenntnisse liefern.

    Daten-Mining: Eine methodische Herangehensweise zur Analyse großer Datenmengen, mit dem Ziel, Muster zu identifizieren und nützliche Informationen zu extrahieren.

    Tiefer Einblick: Im Finanzsektor trägt Daten-Mining zur Risikoanalyse und Betrugserkennung bei. Algorithmen lernen aus historischen Daten, um untypische Verhaltensmuster zu identifizieren und potenzielle Risiken vorherzusagen. In der Herstellung kann Daten-Mining zur Optimierung von Produktionsprozessen und zur Gewährleistung der Produktqualität eingesetzt werden, indem Maschinendatensätze kontinuierlich ausgewertet werden.

    Techniken des Daten-Mining

    Beim Thema Daten-Mining ist es wichtig, verschiedene Techniken zu kennen. Diese Techniken helfen Dir, die Datenanalyse effizient und zielgerichtet durchzuführen. Hierbei unterscheidet man hauptsächlich zwischen Überwachungstechniken und unüberwachten Techniken.

    Überwachungstechniken

    Überwachungstechniken im Daten-Mining beziehen sich auf Methoden, bei denen bereits gelabelte Daten verwendet werden, um ein Modell zu trainieren. Beispielhafte Ansätze dabei sind:

    • Klassifikation
    • Regression
    • Entscheidungsbäume

    Diese Techniken helfen beim Vorhersagen künftiger Ereignisse basierend auf vorhandenen Daten.Betrachte die Formel für eine lineare Regression, die zur Vorhersage eines Werts genutzt wird:

    \[ y = \beta_0 + \beta_1 x + \epsilon \]

    Hier steht \(y\) für die abhängige Variable, \(x\) für die unabhängige Variable, \(\beta_0\) und \(\beta_1\) sind die Koeffizienten, und \(\epsilon\) ist der Fehlerterm.

    Ein praktisches Beispiel für Überwachungstechniken ist die Spam-Filterung in E-Mails. Mithilfe eines trainierten Modells wird jede eingehende Nachricht überprüft und entsprechend als Spam oder nicht Spam klassifiziert.

    Entscheidungsbäume können sehr komplex werden, wenn die Datenmenge wächst. Daher werden oft vereinfachte Modelle wie Random Forests genutzt.

    Ein tieferer Einblick in die Überwachungstechniken zeigt, dass neuronale Netze eine mächtige Methode sind, besonders bei großen und komplexen Datenmengen. Diese Modelle lernen durch Erfahrung und passen sich dynamisch an. Sie eignen sich hervorragend für Bild- und Sprachverarbeitung, wodurch sie in der Künstlichen Intelligenz stark an Bedeutung gewinnen.

    Unüberwachte Techniken

    Im Gegensatz zu Überwachungstechniken arbeiten unüberwachte Techniken mit ungelabelten Daten. Hierbei geht es darum, verborgene Muster oder Strukturen in den Daten zu entdecken. Wichtige unüberwachte Methoden sind:

    • Clustering
    • Hauptkomponentenanalyse (PCA)
    • Assoziationsregeln

    Clustering beispielsweise gruppiert Datenpunkte so, dass Punkte innerhalb einer Gruppe sich möglichst ähnlich sind, während sie sich von anderen Gruppen unterscheiden.

    Die Formel zur Berechnung des Clusters mittels k-Means ist:

    \[ \text{min} \sum_{i=1}^{k} \sum_{x \, \in \, C_i} \| x - \mu_i \|^2 \]

    \(C_i\) sind die Cluster und \(\mu_i\) die jeweiligen Mittelpunkte.

    Ein Beispiel für unüberwachte Techniken ist die Marktsegmentierung. Unternehmen analysieren Kundendaten, um verschiedene Käufergruppen zu erkennen und gezielte Strategien zu entwickeln.

    Unüberwachte Techniken sind auch im Bereich Datenvisualisierung und Reduktion von Dimensionen unverzichtbar. PCA hilft, die Komplexität großer Datensätze zu reduzieren, indem sie Daten in eine niedrigere Dimension transformiert, während sie gleichzeitig die wesentlichen Informationen erhalten bleiben. Dies erleichtert die Visualisierung und das Verständnis von Datenzusammenhängen erheblich.

    Algorithmen im Daten-Mining

    Daten-Mining-Algorithmen sind Werkzeuge, die es Dir ermöglichen, komplexe Datenmengen zu analysieren und wertvolle Muster oder Informationen zu extrahieren. Um die Effektivität dieser Algorithmen zu verstehen, wirst Du die grundlegenden Theorien und die Anwendung in realen Szenarien kennenlernen.

    Entscheidungsbäume

    Entscheidungsbäume sind ein beliebter Algorithmus im Daten-Mining, der für Klassifikations- und Regressionsaufgaben verwendet wird. Ein Entscheidungsbaum ist eine baumartige Diagrammstruktur, die aus Knoten besteht, die Entscheidungen oder Ereignisse darstellen, die wiederum zu ihren möglichen Konsequenzen führen.

    Diese Methode hilft Dir, Entscheidungen auf der Grundlage der durch den Baum dargestellten Fragen zu treffen und ist besonders nützlich, weil sie leicht zu interpretieren ist. Die fundamentale Struktur eines Entscheidungsbaums umfasst Wurzeln, Zweige und Blätter, wobei jedes Blatt einen Entscheidungs- oder Regressionsergebnis darstellt.

    Entscheidungsbaum: Eine grafische Darstellung von Entscheidungsprozessen, bestehend aus verzweigten Jahren, die zu Entscheidungen führen, und möglichen Ergebnissen oder Schlussfolgerungen.

    Ein praktisches Beispiel für Entscheidungsbäume ist der Klassifikationsbaum zur Bestimmung, ob ein E-Mail als Spam oder nicht Spam einzustufen ist. Der Baum bewertet Kriterien wie Schlüsselwörter im Betreff oder bestimmte Absenderadressen, um eine endgültige Entscheidung zu treffen.

    Entscheidungsbäume sind einfach zu interpretieren, was sie ideal für erklärungsbedürftige Modelle in Data Science macht.

    Ein tiefer Einblick offenbart, dass Entscheidungsbäume anfällig für Überanpassung (Overfitting) sind, wobei der Baum zu komplex wird und sich perfekt an die Trainingsdaten anpasst, aber auf neuen Daten schlecht abschneidet. Dies kann durch Pruning-Techniken minimiert werden, die unerhebliche Teile des Baums entfernen.

    Mathematisch betrachtet, basiert ein Entscheidungsbaum auf Teilungsalgorithmen wie dem \texttt{Chi-Squared}, der Gini-Index oder der Informationsgewinn.

    Neuronale Netzwerke

    Neuronale Netzwerke sind inspiriert von der Struktur und Funktionsweise des menschlichen Gehirns und bestehen aus Schichten von miteinander verbundenen Neuronen. Diese Schichten verarbeiten signaleingangsinformationen, führen Berechnungen durch und geben Signale an die nächste Schicht weiter.

    Zum Trainieren neuronaler Netzwerke wird häufig der Backpropagation-Algorithmus verwendet, der die Gewichtungen innerhalb des Netzes anpasst, um die Fehlermessung zu minimieren. Das Verfahren ist iterativ und nutzt Gradientenabstieg, um die Genauigkeit der Vorhersagen zu erhöhen.

    Ein typisches neuronales Netzwerk könnte folgende Formel zur Aktivierungsfunktion verwenden:

    \[ a = \sigma(\sum_{i=1}^n w_i x_i + b) \]

    Hierbei steht \(w_i\) für das Gewicht, \(x_i\) für die Eingangsvariable und \(b\) für den Bias Term.

    Neuronale Netzwerke: Ein Satz von Algorithmen, die Muster erkennen sollen, indem sie die Funktionalität des menschlichen Gehirns nachahmen.

    Ein Beispiel für neuronale Netzwerke ist die Gesichtserkennung in sozialen Netzwerken, wobei das Netzwerk eine immense Anzahl von Gesichtsbildern analysiert, um bestimmte Merkmale zu identifizieren und den Benutzer korrekt zu taggen.

    Ein tieferer Einblick zeigt, dass neuronale Netzwerke extrem komplex mit mehreren verdeckten Schichten sein können, was zu so genannten tiefen neuronalen Netzwerken führt. Diese sind besonders nützlich für große Datenmengen und komplexe Aufgaben wie Sprachverarbeitung und autonomes Fahren. Techniken wie Dropout helfen, Überanpassung zu verhindern, indem sie zufällig Neuronen während des Trainings deaktivieren.

    Clustering-Methoden

    Clustering-Methoden im Daten-Mining werden verwendet, um Daten in Gruppen oder Cluster zu organisieren, die basierend auf ihrer Ähnlichkeit oder Unähnlichkeit geformt werden. Zwei Haupttypen sind hier k-Means und hierarchisches Clustering.

    Im k-Means-Clustering werden Daten in \(k\) Cluster unterteilt, wobei jeder Datenpunkt zu dem Cluster gehört, dessen Durchschnittswert (Zentroid) am nächsten liegt. Die Berechnung lässt sich durch folgende Funktion formalisieren:

    \[ \text{min} \sum_{i=1}^{k} \sum_{x \, \in \, C_i} \| x - \mu_i \|^2 \]

    Hier ist \(\mu_i\) das Zentrum des \(i\)-ten Clusters.

    Ein Beispiel für Clustering ist die Kundensegmentierung, bei der eine Datenbank von Kundendaten analysiert wird, um einzelne Gruppen von Kunden mit ähnlichem Verhalten für gezielte Marketingkampagnen zu identifizieren.

    k-Means ist besonders effektiv für numerische Datensätze, ist jedoch anfällig für Ausreißer.

    Ein tieferer Einblick zeigt, dass beim hierarchischen Clustering ein Dendrogramm erstellt wird, das die hierarchische Beziehung zwischen den Objekten darstellt. Diese Technik ist besonders nützlich, wenn Du keine vorherige Annahme über die Anzahl der Cluster machen möchtest, was die k-Means Methode erfordert.

    Durchführung von Daten-Mining

    Um Daten-Mining erfolgreich durchzuführen, ist es wichtig, einen klaren Prozess zu verstehen, der von der Vorbereitung der Daten bis zur Analyse reicht. Diese Schritte sorgen dafür, dass die Daten bereit sind, verwendet zu werden, um wertvolle Informationen und Muster zu extrahieren.

    Vorbereitung der Daten

    Vorbereitung der Daten ist der erste Schritt und entscheidend für den Erfolg des Daten-Mining-Prozesses. Du musst sicherstellen, dass die Daten sauber, vollständig und in einem geeigneten Format vorliegen, da dies die Grundlage für alle weiteren Analysen bildet. Datenbereinigung ist der Prozess, inkonsistente, fehlende oder fehlerhafte Daten zu korrigieren. Zudem sollte eine Auswahl der relevanten Merkmale durchgeführt werden, um unnötige Informationen zu entfernen und die Analyse effizienter zu gestalten.

    Data CleaningEntfernung von Fehlern und Redundanzen
    Data IntegrationZusammenführung von verschiedenen Datenquellen
    Data TransformationAnpassung der Datenstruktur
    Data ReductionVerdichtung der Datenmengen für Effizienz

    Datenvorbereitung kann oft mehr Zeit in Anspruch nehmen als die eigentliche Analyse.

    Ein tiefer Einblick in die Datenvorbereitung zeigt, dass Techniken wie Feature Scaling dazu verwendet werden, numerische Daten zu normalisieren, um unterschiedliche Skalen zu harmonisieren. Mathematisch betrachtet kann dies durch Standardisierung erreicht werden, mittels der Formel:

    \[ z = \frac{x - \mu}{\sigma} \]

    Hierbei ist \(x\) der Datenpunkt, \(\mu\) der Durchschnitt und \(\sigma\) die Standardabweichung.

    Analyseprozesse im Daten-Mining

    Nachdem die Daten vorbereitet sind, folgt der eigentliche Analyseprozess im Daten-Mining. Dies umfasst Techniken wie Clustering, Klassifikation und Assoziationsanalyse. Diese Schritte werden mithilfe unterschiedlicher Algorithmen durchgeführt, die Daten in Gruppen einteilen, Muster erkennen und Vorhersagen treffen.

    Die bekanntesten Algorithmen und Techniken sind:

    • k-Means-Clustering: Unterteilt Daten in \(k\) Cluster basierend auf den geringsten Quadratsummenabständen zu den Clusterzentroiden.
    • Fuzzy-Logik: Nutzt unscharfe Mengentheorie, um Daten in sich überlappende Cluster einzuteilen.
    • Naive Bayes: Ein Klassifikationsverfahren, das auf bedingten Wahrscheinlichkeiten aufbaut.

    Ein Beispiel für die Anwendung eines Analyseprozesses ist die Kundenklassifikation im Einzelhandel. Unternehmen nutzen Algorithmen wie die Nearest-Neighbor-Klassifikation, um Daten über das Einkaufsverhalten von Kunden zu analysieren und passende Marketingkampagnen zu planen.

    Da es viele Algorithmen gibt, ist die Wahl des richtigen Algorithmus entscheidend für die Effizienz und Genauigkeit der Analyse.

    Beispiel für Daten-Mining

    Um die vielschichtigen Konzepte des Daten-Mining zu veranschaulichen, betrachten wir ein konkretes Beispiel: die Betrugserkennung im Finanzwesen. Banken und Kreditkartenunternehmen setzen Daten-Mining-Techniken ein, um betrügerische Aktivitäten zu erkennen und zu verhindern.

    Der Prozess beginnt mit der Sammlung historischer Transaktionsdaten, die dann analysiert werden, um normale von abnormalen Muster zu unterscheiden. Ein Algorithmus zur Anomalieerkennung kann potenziell betrügerisches Verhalten frühzeitig identifizieren, z.B. durch die Analyse von untypischen Transaktionsbeträgen oder ungewöhnlichen Standorten.

    Ein fortgeschrittener Ansatz beinhaltet die Verwendung von überwachtem Lernen, bei dem Modelle auf Trainingsdaten (bereits bekannte Betrugsfälle) trainiert werden.

    Bei der Betrugserkennung sind Algorithmen wie Random Forest oft im Einsatz, welche Entscheidungsmuster anhand diverser Kriterien analysieren, um die Wahrscheinlichkeit von Betrug zu kalkulieren. Diese Technik kann mit mathematischen Modellen zur Wahrscheinlichkeitsberechnung und Risikoabschätzung kombiniert werden.

    Praktische Übungen zum Daten-Mining

    Um das theoretische Wissen über Daten-Mining in die Praxis umzusetzen, sind praktische Übungen unerlässlich. Diese Übungen schärfen das Verständnis und verbessern die Fähigkeit, Daten effektiv zu analysieren und sinnvolle Interpretationen daraus zu ziehen.

    • Installiere ein Data Mining Tool wie Weka oder RapidMiner und importiere einen ausgewählten Datensatz.
    • Führe eine Clusteranalyse durch und interpretiere die Resultate.
    • Implementiere ein einfaches Python-Skript, um mit Pandas und Scikit-Learn eine Klassifikationsaufgabe zu lösen.
    import pandas as pdfrom sklearn.model_selection import train_test_splitfrom sklearn.tree import DecisionTreeClassifier# Daten einlesendata = pd.read_csv('dataset.csv')X = data.drop('Zielvariable', axis=1)y = data['Zielvariable']# Datensatz aufteilenX_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3)# Modell erstellen und trainierenmodel = DecisionTreeClassifier()model.fit(X_train, y_train)

    Daten-Mining - Das Wichtigste

    • Daten-Mining: Prozess zur Entdeckung von Mustern und Informationen in großen Datenmengen, wichtig für Entscheidungsfindung und Trendvorhersage.
    • Techniken des Daten-Mining: Hauptsächlich in Überwachungstechniken (Klassifikation, Regression) und unüberwachte Techniken (Clustering, PCA) unterteilt.
    • Algorithmen im Daten-Mining: Wichtige Algorithmen umfassen k-Means-Clustering, Entscheidungsbäume und neuronale Netzwerke.
    • Durchführung von Daten-Mining: umfasst Schritte von Datenvorbereitung bis zur Analyse, um wertvolle Informationen zu extrahieren.
    • Beispiel für Daten-Mining: Verwendung im Einzelhandel zur Analyse von Verkaufsdaten, um Kundenmuster zu erkennen.
    • Übungen zum Daten-Mining: Praktische Aufgaben umfassen die Installation von Tools, Durchführung von Clusteranalysen und Skripterstellung mit Python.
    Häufig gestellte Fragen zum Thema Daten-Mining
    Welche Vorteile bietet Daten-Mining für Unternehmen?
    Daten-Mining ermöglicht Unternehmen, versteckte Muster und Trends in großen Datenbeständen zu erkennen, was fundierte Entscheidungsfindungen unterstützt. Es hilft, Kundenverhalten zu analysieren, Marketingstrategien zu optimieren und betriebliche Effizienz zu steigern. Zudem können Risiken besser vorhergesagt und minimiert werden. Dies führt zu Wettbewerbsvorteilen und erhöhter Rentabilität.
    Wie funktioniert der Prozess des Daten-Mining?
    Der Prozess des Daten-Mining umfasst das Sammeln und Vorbereiten von Daten, das Auswählen geeigneter Algorithmen, das Ausführen der Datenanalyse zur Erkennung von Mustern und Zusammenhängen sowie die Bewertung und Interpretation der Ergebnisse, um verwertbare Erkenntnisse für Entscheidungsfindungen zu gewinnen.
    Welche Tools werden häufig für Daten-Mining verwendet?
    Häufig verwendete Tools für Daten-Mining sind RapidMiner, KNIME, Weka, SAS und IBM SPSS Modeler. Diese Tools bieten verschiedene Funktionen zur Datenanalyse, Visualisierung und Modellierung, um komplexe Datensätze zu untersuchen. Sie unterstützen sowohl Anfänger als auch erfahrene Anwender bei der Umsetzung von Daten-Mining-Projekten.
    Welche ethischen Bedenken gibt es beim Einsatz von Daten-Mining?
    Ethische Bedenken beim Daten-Mining umfassen Datenschutzverletzungen, da sensible persönliche Informationen ohne Zustimmung genutzt werden können. Es besteht die Gefahr der Diskriminierung und der Verstärkung von Vorurteilen durch voreingenommene Algorithmen. Zudem kann mangelnde Transparenz bei der Datenanalyse das Vertrauen der Öffentlichkeit untergraben.
    Welche Herausforderungen gibt es beim Implementieren von Daten-Mining-Lösungen?
    Herausforderungen beim Implementieren von Daten-Mining-Lösungen umfassen den Umgang mit großen, heterogenen Datensätzen, die Sicherstellung der Datenqualität, den Schutz der Datensicherheit und -privatsphäre sowie die Integration der Ergebnisse in bestehende Systeme. Zudem erfordert es oft spezialisierte Fachkenntnisse und ressourcenintensive Rechenkapazitäten.
    Erklärung speichern

    Teste dein Wissen mit Multiple-Choice-Karteikarten

    Was sind \Überwachungstechniken im Daten-Mining?

    Was ist ein entscheidender Nachteil von Entscheidungsbäumen im Daten-Mining?

    Was beschreibt der Begriff Daten-Mining?

    Weiter

    Entdecke Lernmaterialien mit der kostenlosen StudySmarter App

    Kostenlos anmelden
    1
    Über StudySmarter

    StudySmarter ist ein weltweit anerkanntes Bildungstechnologie-Unternehmen, das eine ganzheitliche Lernplattform für Schüler und Studenten aller Altersstufen und Bildungsniveaus bietet. Unsere Plattform unterstützt das Lernen in einer breiten Palette von Fächern, einschließlich MINT, Sozialwissenschaften und Sprachen, und hilft den Schülern auch, weltweit verschiedene Tests und Prüfungen wie GCSE, A Level, SAT, ACT, Abitur und mehr erfolgreich zu meistern. Wir bieten eine umfangreiche Bibliothek von Lernmaterialien, einschließlich interaktiver Karteikarten, umfassender Lehrbuchlösungen und detaillierter Erklärungen. Die fortschrittliche Technologie und Werkzeuge, die wir zur Verfügung stellen, helfen Schülern, ihre eigenen Lernmaterialien zu erstellen. Die Inhalte von StudySmarter sind nicht nur von Experten geprüft, sondern werden auch regelmäßig aktualisiert, um Genauigkeit und Relevanz zu gewährleisten.

    Erfahre mehr
    StudySmarter Redaktionsteam

    Team Informatik Lehrer

    • 13 Minuten Lesezeit
    • Geprüft vom StudySmarter Redaktionsteam
    Erklärung speichern Erklärung speichern

    Lerne jederzeit. Lerne überall. Auf allen Geräten.

    Kostenfrei loslegen

    Melde dich an für Notizen & Bearbeitung. 100% for free.

    Schließ dich über 22 Millionen Schülern und Studierenden an und lerne mit unserer StudySmarter App!

    Die erste Lern-App, die wirklich alles bietet, was du brauchst, um deine Prüfungen an einem Ort zu meistern.

    • Karteikarten & Quizze
    • KI-Lernassistent
    • Lernplaner
    • Probeklausuren
    • Intelligente Notizen
    Schließ dich über 22 Millionen Schülern und Studierenden an und lerne mit unserer StudySmarter App!
    Mit E-Mail registrieren