Select your language

Suggested languages for you:
Log In Start studying!

Lernmaterialien für D1 Suchmaschinen an der Universität Graz

Greife auf kostenlose Karteikarten, Zusammenfassungen, Übungsaufgaben und Altklausuren für deinen D1 Suchmaschinen Kurs an der Universität Graz zu.

TESTE DEIN WISSEN

Was ist eine Suchmaschine? S.495

Lösung anzeigen
TESTE DEIN WISSEN
  • ein Computersystem, das Inhalte aus dem World Wide Web mittels Crawling erfasst und über eine Benutzerschnittstelle durchsuchbar macht, wobei die Ergebnisse in einer nach systemseitig angenommener Relevanz geordneten Darstellung aufgeführt werden
  • Information-Retrieval-Systeme, die nicht auf selbst erstellten Datenbestand zurückgreifen, sondern ihre Indices aus den verstreut vorliegenden Dokumenten des World Wide Web aufbauen und sich hinsichtlich der Benutzerführung und Trefferdarstellung dem Zielpublikum der Laiennutzer anpassen
  • Orientierung früherer Suchmaschinen auf konventionellen Information Retrieval Systemen
    • jetzt: viele wesentliche Entwicklungen des Information Retrieval kommen direkt von Suchmaschinenanbietern oder entstanden in Kooperationen


Lösung ausblenden
TESTE DEIN WISSEN

Welche alternativen Zugänge neben Suchmaschinen gibt es noch zu Web-Inhalten? S.495-496

Lösung anzeigen
TESTE DEIN WISSEN
  • Web-Verzeichnisse
    • Klassifizieren Websites -> ermöglicht hierarchisches Browsing und die Suche nach guten Quellen zu einem Thema mit hoher precision 
    • heute nur noch geringe Bedeutung
  • Social Bookmarking Dienste
    • Nutzer können Websites speichern, annotieren und mit anderen teilen
  • Frage-Antwort-Dienste
    • Nutzer stellen der Gemeinschaft Fragen, die asynchron beantwortet werden können
  • Metasuchmaschinen (Sonderfall)
    • bauen nicht selbst einen Index auf, sondern greifen auf Indices mehrerer anderer echter Suchmaschinen zurück
    • Suchanfrage wird an echte Suchmaschine weitergeleitet -> Ergebnisse werden in einer einzigen Trefferliste zusammengefasst
    • Vorteile: größere Abdeckung des Webs und bessere Relevanzbewertung durch die Zusammenfassung der Urteile der Suchmaschinen
      • jedoch nicht empirisch belegt
    • spielen keine Rolle mehr
  • Spezialsuchmaschinen
    • thematisch beschränkt -> zielgenaue Recherche möglich
    • Ranking kann speziell auf die von ihnen erschlossenen Dokumente angepasst werden
    • Vorteile: Darstellung der Ergebnisse, die auf individuellen Zweck der Spezialsuchmaschine und auf das Niveau der Zielgruppe angepasst werden kann 
    • Probleme: technische Beschränkungen; gesamtes Web nicht abdeckbar; finanzielle Hürden; Ausrichtung auf Durchschnittsnutzern; müssen einheitliche Erschließung aller indexierten Inhalte betreiben
Lösung ausblenden
TESTE DEIN WISSEN

Warum ist ein Verständnis der an die Suchmaschinen gerichteten Anfragen wichtig? S.496

Lösung anzeigen
TESTE DEIN WISSEN
  • um die große Zufriedenheit der Nutzer mit Suchmaschinen zu verstehen 
    • hoher Anteil an navigationsorientierten und einfachen informationsorientierten Anfragen -> Vermutung, dass Zufriedenheit der Nutzer zu großem Teil durch die erfolgreiche Beantwortung dieser Suchanfragen kommt
  • um Problemfelder bei der Websuche aufzeigen zu können
Lösung ausblenden
TESTE DEIN WISSEN

Welche unterschiedlichen Anfragetypen gibt es? S.496-497

Lösung anzeigen
TESTE DEIN WISSEN
  • navigationsorientierte Anfragen
    • eine Seite soll (wieder)gefunden werden, die dem Nutzer bekannt ist oder er davon ausgeht, dass sie existiert
    • Bsp.: Suche nach Unternehmenshomepage (Microsoft) oder Person
    • Anfragen haben idR richtiges Ergebnis
    • Informationsbedürfnis befriedigt, sobald gewünschte Seite gefunden wird
  • informationsorientierte Anfragen
    • Informationsbedürfnis meist nicht durch ein einziges Dokument befriedigt
    • Nutzer möchte sich über ein Thema informieren und liest mehrere Dokiumente
    • zielen auf statische Dokumente -> nach Abruf ist keine weitere Interaktion mit Website nötig, um an gewünschte Information zu gelangen
  • transaktionsorientierte Anfragen
    • Webseite wird gesucht, auf der eine Transkation stattfindet
    • z.B. Kauf eines Produktes, Download einer Daten oder Recherche in einer Datenbank
Lösung ausblenden
TESTE DEIN WISSEN

Wie sieht der weltweite Markt für Web-Suchmaschinen aus? S. 497

Lösung anzeigen
TESTE DEIN WISSEN
  • weltweiter Markt nur von wenigen Anbietern bestimmt -> allen voran Google (weltweiter Marktanteil von mehr als 2/3) und Microsoft (Bing) als stärkster Konkurrent (16%)
  • Europa: Quasi-Monopol von Google (in meisten Länder mehr als 90% Marktanteil)
  • außerhalb Europa: nationale Suchmaschinen wie Baidu in China oder Yandex in Russland
  • Yahooals prominentestes Beispiel für eine Suchmaschine die auf Index eines Partners zurückgreift
    • in Deutschland: T-Online, Web.de, GMX und AOL (-> greifen auf Google-Ergebnisse zurück)
  • Unterscheidung des Marktes in
    • Suchmaschinen als Produkte, die sich an Endkunden wenden
      • nicht viel mehr als Suchinterface, das auf einen der bekannten Indices zurückgreift)
    • Markt für Web-Indices, die primär auch für andere Zwecke als für die Suche erstellt sein können
      • v.a. Analysezwecke im Bereich Suchmaschinenoptimierung und Reputationsanalyse für Unternehmen
Lösung ausblenden
TESTE DEIN WISSEN

Wie sind algorithmische Suchmaschinen aufgebaut? S.497

Lösung anzeigen
TESTE DEIN WISSEN

Neben der Datenbasis (Index) drei Hauptkomponenten: Crawler, Indexer und Searcher

Lösung ausblenden
TESTE DEIN WISSEN

Beschreibe die Datenbasis (Index) einer Suchmaschine. S. 498-499

Lösung anzeigen
TESTE DEIN WISSEN
  • Datenbasis: Inhalte des Webs, die eigenständig aufgefunden werden müssen
  • Vollständigkeit des Datenbestands (im Idealfall eine aktuelle und vollständig lokale Kopie des Web) kann nicht gewährleistet werden
  • Herausforderung: Zusammensetzung eines Index aus vielen Milliarden Dokumenten
    • ressourcenintensiv und kostspielig
    • Index muss kontinuierlich aktuell gehalten werden
    • Spam-Dokumente müssen ausgeschlossen werden
  • Früher: Suchmaschinen bauten auf einen einzigen Index (Web-Index) auf, aus dem alle Suchanfragen bedient wurden
  • jetzt: Etablierung verschiedener Standard-Indices (Web-, Nachrichten-, Bilder-, und Video-Index)
  • Anspruch Web-Index: möglichst vollständige Abdeckung des Webs
  • Fokus von Spezialsuchen (vertikale Indices) auf bestimmte Themen, werden aus begrenzten Quellenmengen zusammengestellt
Lösung ausblenden
TESTE DEIN WISSEN

Was sind die drei Bereiche der Dienste von Google? S. 489-499

Lösung anzeigen
TESTE DEIN WISSEN
  • Scan and link
    • Fremde Inhalte werden erfasst, aggregiert und zur Suche zur Verfügung gestellt (z.B. Websuche)
  • Host and serve
    • von den Nutzern selbst erstellte Inhalte werden auf der eigenen Plattform gesammelt und gehostet (z.B. Blogger, Youtube)
    • Vorteil: umfangreiche Metadaten, über die Suchmaschine exklusiv verfügt
  • Scan and serve
    • Google bringt Dinge aus der echten Welt in die digitale (z.B. Google Books, Google Street View)


  • Beispiel Kollektionen von Google: news.google.de (Nachrichten), scholar.google.de (Wissenschaft)
    • Direkte Ansteuerung der Kollektionen möglich (-> Spezialsuchmaschinen)
    • Einbindung der Treffer aus allen Kollektionen in die Trefferliste der Websuche (Universal Search)
Lösung ausblenden
TESTE DEIN WISSEN

Was macht der Crawler? S.499-500

Lösung anzeigen
TESTE DEIN WISSEN
  • Auffinden von neuen Dokumenten durch Verfolgung von Hyperlinks innerhalb bereits bekannter Dokumente 
  • Prüfung bereits bekannter Dokumente auf Aktualisierungen und Sicherstellung, dass die Dokumente zwischenzeitlich nicht gelöscht wurden
  • Crawling Vorgang findet kontinuierlich statt
  • Basis: Ausgangsmenge (seed set) bekannter Webseiten
    • darin enthaltene Links werden verfolgt, gefundene Dokumente indexiert und wiederum die darin enthaltenen Links verfolgt
  • Priorisierung der zu besuchenden Dokumente durch die Suchmaschinen z.B. nach Popularität oder Aktualisierungsintervall
  • Für den Aufbau von Kollektionen -> Entwicklung eigener Crawler, die bestimmte Datenbestände abfragen
  • Einstellung möglich, bestimmte Inhalte, die sonst zum invisible web gehören mit abzufragen
    • z.B. Crawler von Google Scholar: Abfrage von Inhalten, die hinter einer Paywall der Anbieter stehen
Lösung ausblenden
TESTE DEIN WISSEN

Was macht der Indexer? S.500-501

Lösung anzeigen
TESTE DEIN WISSEN
  • Zerlegung und Aufbereitung der vom Crawler gelieferten Dokumente zur effizienten Verarbeitung in der Suche
  • System der Syntaxanalyse (parsing module): Zerlung der gefundenen Dokumente in indexierbare Einheiten (z.B. einzelne Wörter, Wortstämme,...) und Verzeichnung deren Vorkommens innerhalb des Dokuments
  • -> Erstellung eines invertierten Index
    • verzeichnet für jede indexierte Einheit diejenigen Dokumente, in denen diese vorkommt
    • Vorteil: Ermöglichung eines schnellen Zugriffs, da nicht alle Dokumente durchsucht werden müssen
    • Nachteil: nicht in diesem Prozess berücksichtigte Informationen können später nicht recherchiert werden
  • keine suchmaschinenspezifische Form der Indexierung
Lösung ausblenden
TESTE DEIN WISSEN

Was macht der Searcher? S.501

Lösung anzeigen
TESTE DEIN WISSEN
  • Nutzer gibt Suchanfrage ein -> Index wird abgefragt
  • Anfragemodul (searcher oder query module): Umsetzung der eingegebenen Suchanfrage in eine weiterverarbeitbare Form 
    • z.B. Auflösung besonderer Befehle und Operatoren so, dass sie entsprechend dem Index abgefragt werden können
  • Lesen der Ergebnisse aus dem Index und Aufbereitung dieser für den Suchenden
Lösung ausblenden
TESTE DEIN WISSEN

Warum können Crawler in der Praxis über das seed set nicht alle Dokumente des Webs abdecken? S.500

Lösung anzeigen
TESTE DEIN WISSEN
  • erreichbare Abdeckung hängt stark vom seed set ab
  • Verbindungen der Dokumente untereinander sind nicht so stark, dass durch einfache Linkverfolgung alle Dokumente zu finden wären
Lösung ausblenden
  • 89484 Karteikarten
  • 1728 Studierende
  • 71 Lernmaterialien

Beispielhafte Karteikarten für deinen D1 Suchmaschinen Kurs an der Universität Graz - von Kommilitonen auf StudySmarter erstellt!

Q:

Was ist eine Suchmaschine? S.495

A:
  • ein Computersystem, das Inhalte aus dem World Wide Web mittels Crawling erfasst und über eine Benutzerschnittstelle durchsuchbar macht, wobei die Ergebnisse in einer nach systemseitig angenommener Relevanz geordneten Darstellung aufgeführt werden
  • Information-Retrieval-Systeme, die nicht auf selbst erstellten Datenbestand zurückgreifen, sondern ihre Indices aus den verstreut vorliegenden Dokumenten des World Wide Web aufbauen und sich hinsichtlich der Benutzerführung und Trefferdarstellung dem Zielpublikum der Laiennutzer anpassen
  • Orientierung früherer Suchmaschinen auf konventionellen Information Retrieval Systemen
    • jetzt: viele wesentliche Entwicklungen des Information Retrieval kommen direkt von Suchmaschinenanbietern oder entstanden in Kooperationen


Q:

Welche alternativen Zugänge neben Suchmaschinen gibt es noch zu Web-Inhalten? S.495-496

A:
  • Web-Verzeichnisse
    • Klassifizieren Websites -> ermöglicht hierarchisches Browsing und die Suche nach guten Quellen zu einem Thema mit hoher precision 
    • heute nur noch geringe Bedeutung
  • Social Bookmarking Dienste
    • Nutzer können Websites speichern, annotieren und mit anderen teilen
  • Frage-Antwort-Dienste
    • Nutzer stellen der Gemeinschaft Fragen, die asynchron beantwortet werden können
  • Metasuchmaschinen (Sonderfall)
    • bauen nicht selbst einen Index auf, sondern greifen auf Indices mehrerer anderer echter Suchmaschinen zurück
    • Suchanfrage wird an echte Suchmaschine weitergeleitet -> Ergebnisse werden in einer einzigen Trefferliste zusammengefasst
    • Vorteile: größere Abdeckung des Webs und bessere Relevanzbewertung durch die Zusammenfassung der Urteile der Suchmaschinen
      • jedoch nicht empirisch belegt
    • spielen keine Rolle mehr
  • Spezialsuchmaschinen
    • thematisch beschränkt -> zielgenaue Recherche möglich
    • Ranking kann speziell auf die von ihnen erschlossenen Dokumente angepasst werden
    • Vorteile: Darstellung der Ergebnisse, die auf individuellen Zweck der Spezialsuchmaschine und auf das Niveau der Zielgruppe angepasst werden kann 
    • Probleme: technische Beschränkungen; gesamtes Web nicht abdeckbar; finanzielle Hürden; Ausrichtung auf Durchschnittsnutzern; müssen einheitliche Erschließung aller indexierten Inhalte betreiben
Q:

Warum ist ein Verständnis der an die Suchmaschinen gerichteten Anfragen wichtig? S.496

A:
  • um die große Zufriedenheit der Nutzer mit Suchmaschinen zu verstehen 
    • hoher Anteil an navigationsorientierten und einfachen informationsorientierten Anfragen -> Vermutung, dass Zufriedenheit der Nutzer zu großem Teil durch die erfolgreiche Beantwortung dieser Suchanfragen kommt
  • um Problemfelder bei der Websuche aufzeigen zu können
Q:

Welche unterschiedlichen Anfragetypen gibt es? S.496-497

A:
  • navigationsorientierte Anfragen
    • eine Seite soll (wieder)gefunden werden, die dem Nutzer bekannt ist oder er davon ausgeht, dass sie existiert
    • Bsp.: Suche nach Unternehmenshomepage (Microsoft) oder Person
    • Anfragen haben idR richtiges Ergebnis
    • Informationsbedürfnis befriedigt, sobald gewünschte Seite gefunden wird
  • informationsorientierte Anfragen
    • Informationsbedürfnis meist nicht durch ein einziges Dokument befriedigt
    • Nutzer möchte sich über ein Thema informieren und liest mehrere Dokiumente
    • zielen auf statische Dokumente -> nach Abruf ist keine weitere Interaktion mit Website nötig, um an gewünschte Information zu gelangen
  • transaktionsorientierte Anfragen
    • Webseite wird gesucht, auf der eine Transkation stattfindet
    • z.B. Kauf eines Produktes, Download einer Daten oder Recherche in einer Datenbank
Q:

Wie sieht der weltweite Markt für Web-Suchmaschinen aus? S. 497

A:
  • weltweiter Markt nur von wenigen Anbietern bestimmt -> allen voran Google (weltweiter Marktanteil von mehr als 2/3) und Microsoft (Bing) als stärkster Konkurrent (16%)
  • Europa: Quasi-Monopol von Google (in meisten Länder mehr als 90% Marktanteil)
  • außerhalb Europa: nationale Suchmaschinen wie Baidu in China oder Yandex in Russland
  • Yahooals prominentestes Beispiel für eine Suchmaschine die auf Index eines Partners zurückgreift
    • in Deutschland: T-Online, Web.de, GMX und AOL (-> greifen auf Google-Ergebnisse zurück)
  • Unterscheidung des Marktes in
    • Suchmaschinen als Produkte, die sich an Endkunden wenden
      • nicht viel mehr als Suchinterface, das auf einen der bekannten Indices zurückgreift)
    • Markt für Web-Indices, die primär auch für andere Zwecke als für die Suche erstellt sein können
      • v.a. Analysezwecke im Bereich Suchmaschinenoptimierung und Reputationsanalyse für Unternehmen
Mehr Karteikarten anzeigen
Q:

Wie sind algorithmische Suchmaschinen aufgebaut? S.497

A:

Neben der Datenbasis (Index) drei Hauptkomponenten: Crawler, Indexer und Searcher

Q:

Beschreibe die Datenbasis (Index) einer Suchmaschine. S. 498-499

A:
  • Datenbasis: Inhalte des Webs, die eigenständig aufgefunden werden müssen
  • Vollständigkeit des Datenbestands (im Idealfall eine aktuelle und vollständig lokale Kopie des Web) kann nicht gewährleistet werden
  • Herausforderung: Zusammensetzung eines Index aus vielen Milliarden Dokumenten
    • ressourcenintensiv und kostspielig
    • Index muss kontinuierlich aktuell gehalten werden
    • Spam-Dokumente müssen ausgeschlossen werden
  • Früher: Suchmaschinen bauten auf einen einzigen Index (Web-Index) auf, aus dem alle Suchanfragen bedient wurden
  • jetzt: Etablierung verschiedener Standard-Indices (Web-, Nachrichten-, Bilder-, und Video-Index)
  • Anspruch Web-Index: möglichst vollständige Abdeckung des Webs
  • Fokus von Spezialsuchen (vertikale Indices) auf bestimmte Themen, werden aus begrenzten Quellenmengen zusammengestellt
Q:

Was sind die drei Bereiche der Dienste von Google? S. 489-499

A:
  • Scan and link
    • Fremde Inhalte werden erfasst, aggregiert und zur Suche zur Verfügung gestellt (z.B. Websuche)
  • Host and serve
    • von den Nutzern selbst erstellte Inhalte werden auf der eigenen Plattform gesammelt und gehostet (z.B. Blogger, Youtube)
    • Vorteil: umfangreiche Metadaten, über die Suchmaschine exklusiv verfügt
  • Scan and serve
    • Google bringt Dinge aus der echten Welt in die digitale (z.B. Google Books, Google Street View)


  • Beispiel Kollektionen von Google: news.google.de (Nachrichten), scholar.google.de (Wissenschaft)
    • Direkte Ansteuerung der Kollektionen möglich (-> Spezialsuchmaschinen)
    • Einbindung der Treffer aus allen Kollektionen in die Trefferliste der Websuche (Universal Search)
Q:

Was macht der Crawler? S.499-500

A:
  • Auffinden von neuen Dokumenten durch Verfolgung von Hyperlinks innerhalb bereits bekannter Dokumente 
  • Prüfung bereits bekannter Dokumente auf Aktualisierungen und Sicherstellung, dass die Dokumente zwischenzeitlich nicht gelöscht wurden
  • Crawling Vorgang findet kontinuierlich statt
  • Basis: Ausgangsmenge (seed set) bekannter Webseiten
    • darin enthaltene Links werden verfolgt, gefundene Dokumente indexiert und wiederum die darin enthaltenen Links verfolgt
  • Priorisierung der zu besuchenden Dokumente durch die Suchmaschinen z.B. nach Popularität oder Aktualisierungsintervall
  • Für den Aufbau von Kollektionen -> Entwicklung eigener Crawler, die bestimmte Datenbestände abfragen
  • Einstellung möglich, bestimmte Inhalte, die sonst zum invisible web gehören mit abzufragen
    • z.B. Crawler von Google Scholar: Abfrage von Inhalten, die hinter einer Paywall der Anbieter stehen
Q:

Was macht der Indexer? S.500-501

A:
  • Zerlegung und Aufbereitung der vom Crawler gelieferten Dokumente zur effizienten Verarbeitung in der Suche
  • System der Syntaxanalyse (parsing module): Zerlung der gefundenen Dokumente in indexierbare Einheiten (z.B. einzelne Wörter, Wortstämme,...) und Verzeichnung deren Vorkommens innerhalb des Dokuments
  • -> Erstellung eines invertierten Index
    • verzeichnet für jede indexierte Einheit diejenigen Dokumente, in denen diese vorkommt
    • Vorteil: Ermöglichung eines schnellen Zugriffs, da nicht alle Dokumente durchsucht werden müssen
    • Nachteil: nicht in diesem Prozess berücksichtigte Informationen können später nicht recherchiert werden
  • keine suchmaschinenspezifische Form der Indexierung
Q:

Was macht der Searcher? S.501

A:
  • Nutzer gibt Suchanfrage ein -> Index wird abgefragt
  • Anfragemodul (searcher oder query module): Umsetzung der eingegebenen Suchanfrage in eine weiterverarbeitbare Form 
    • z.B. Auflösung besonderer Befehle und Operatoren so, dass sie entsprechend dem Index abgefragt werden können
  • Lesen der Ergebnisse aus dem Index und Aufbereitung dieser für den Suchenden
Q:

Warum können Crawler in der Praxis über das seed set nicht alle Dokumente des Webs abdecken? S.500

A:
  • erreichbare Abdeckung hängt stark vom seed set ab
  • Verbindungen der Dokumente untereinander sind nicht so stark, dass durch einfache Linkverfolgung alle Dokumente zu finden wären
D1 Suchmaschinen

Erstelle und finde Lernmaterialien auf StudySmarter.

Greife kostenlos auf tausende geteilte Karteikarten, Zusammenfassungen, Altklausuren und mehr zu.

Jetzt loslegen

Das sind die beliebtesten StudySmarter Kurse für deinen Studiengang D1 Suchmaschinen an der Universität Graz

Für deinen Studiengang D1 Suchmaschinen an der Universität Graz gibt es bereits viele Kurse, die von deinen Kommilitonen auf StudySmarter erstellt wurden. Karteikarten, Zusammenfassungen, Altklausuren, Übungsaufgaben und mehr warten auf dich!

Das sind die beliebtesten D1 Suchmaschinen Kurse im gesamten StudySmarter Universum

DIS17.2 - Suchmaschinentechnologien

Technische Hochschule Köln

Zum Kurs

Die all-in-one Lernapp für Studierende

Greife auf Millionen geteilter Lernmaterialien der StudySmarter Community zu
Kostenlos anmelden D1 Suchmaschinen
Erstelle Karteikarten und Zusammenfassungen mit den StudySmarter Tools
Kostenlos loslegen D1 Suchmaschinen