blackodemx Geschrieben 3. Juli 2012 Geschrieben 3. Juli 2012 Hallo, mir stellt sich aktuell die Frage, wie ein Suchmaschinencrawler Seiten zum scannen findet. Läuft dieser einfach alle Kombinationen von z.B. a.de bis zzzzzzzzzzzzzzzzzzzzzzz.de durch? Oder werden da anderes Strategien verfolgt? Und wie würde man das obere Beispiel anwenden, es würde ja nicht reichen die Potenzmenge des Alphabets zu beziehen, man müsste ja auch beachten das Buchstaben mehrfach vorkommen können etc. Sehe ich das richtig? Zitieren
grueni Geschrieben 3. Juli 2012 Geschrieben 3. Juli 2012 Was hat das jetzt konkret mit .NET zu tun? Zitieren
blackodemx Geschrieben 3. Juli 2012 Autor Geschrieben 3. Juli 2012 Tut mir leid, ist wohl eine Angewohnheit hier zu posten Wäre es möglich das Thema zu verschieben? Zitieren
flashpixx Geschrieben 3. Juli 2012 Geschrieben 3. Juli 2012 Nein, Google z.B. verfolgt den Webgraphen, sowohl in normaler, wie auch inverser Richtung Zitieren
blackodemx Geschrieben 3. Juli 2012 Autor Geschrieben 3. Juli 2012 Worum genau handelt es sich bei dem Webgraphen? Google liefert da kaum vernünftige Ergebnisse Zitieren
flashpixx Geschrieben 3. Juli 2012 Geschrieben 3. Juli 2012 http://de.wikipedia.org/wiki/Graph_(Graphentheorie) z.b. http://de.wikipedia.org/wiki/Skalenfreies_Netz Zitieren
Empfohlene Beiträge
Dein Kommentar
Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.