Googles neuester Streich - das Ende für tausende Webseiten?

Supernature

Und jetzt?
Teammitglied
Suchmaschinen-Gigant Google plant die wohl umfassendste Überarbeitung seiner Websuche. Wer bisher bei Google einen Suchbegriff eingibt, erhält eine Liste mehr oder weniger zum Thema passender Webseiten und sucht sich dann die aus, die am besten zu seiner Frage passt.
In der Vergangenheit hat Google bereits diverse Verbesserungen wie z.B. eine Vorschaufunktion eingebaut, die den Anwender davor bewahren sollen, einen Treffer anzuklicken, der nichts mit der eigentlichen Suche zu tun hat, sondern zufällig oder durch Manipulation weit oben angezeigt wurde.

Jetzt will man noch einen Schritt weiter gehen und dem Suchenden nicht mehr nur eine Trefferliste von Webseiten anzeigen, sondern ihm die gesuchte Information möglichst direkt auf der Ergebnisseite zu präsentieren, so dass der Besuch einer anderen Webseite gar nicht mehr nötig ist.
Bis das zuverlässig funktioniert, werden wohl Jahre vergehen, in letzter Konsequenz könnte dies aber das Aus für viele Webseiten bedeuten.

Denn sehr viele Internetseiten sind heutzutage geradezu von Google abhängig. Und ohne Google-Besucher sinken die Werbeeinnahmen drastisch - das könnte für viele Seiten schnell zum KO führen.
Da Google ja selbst über keinerlei Wissen verfügt, beruht die geplante neue Suche ausschließlich auf dem Sammeln von Content anderer Webseiten - sie würden quasi ohne Gegenleistung ausgesaugt.

Die logische Folge davon wäre, dass viele Webmaster den Googlebot aussperren.
Vielleicht entwickelt Google ja auch ein neues Vergütungsmodell für Webseiten, deren Content regelmäßig abgegriffen wird - das wäre nur fair, und nur so kann das auf Dauer auch funktionieren.

Quelle: Google Gives Search a Refresh - WSJ.com
 
Finde ich gut!
Erst gestern hab ich etwas zur Romanfigur "Yezabel Esclarmunde" gesucht. Im Beschreibungstext eines der Bilder stand tatsächlich ein Hinweis darauf, wem diese Figur nachmpfunden ist - rufe ich das Ergebnis aber dann auf, ist der komplette Text nirgendwo zu finden. Weder im eigentlichen Text, noch im Quelltext und keiner anderen angrenzenden Seite. Ich habe also die Hoffnung, dass Google mir bald zeigen kann, was da noch alles steht, ohne dass ich die Seite direkt aufrufen muss, nur um festzustellen, dass es wieder nur ein Geistertext war.

Es könnte mir ja auch egal sein, aber dieses Phänomen tritt nicht "mal hier, mal da" auf, sondern fast regelmässig. Sehr oft wünsche ich mir den Button "Aus dem Google Cache anzeigen"..
 
@Threepwood: Niemand wird Webseiten nachtrauern, die nur per Keyword-Spam in den Trefferlisten oben stehen und sich daran eine goldene Nase verdienen. An der Lösung dieses Problems arbeitet Google ja schon seit Jahren vergeblich.

Aber stell Dir vor, Du hast eine Webseite mit hochwertigen Inhalten (zum Beispiel eine mit vielen Infos zu Windows :angel), und die Leute kommen nicht mehr per Google-Suche zu Dir, sondern bekommen Deine Arbeit auf der Google-Seite präsentiert - hübsch von Werbung umrahmt, an der dann nur noch Google etwas verdient.

Das ist die Sicht, die ich darauf habe - dem Suchenden selbst wird das völlig egal sein - er möchte eine kostenlose Info und bekommt sie auch, sogar einfacher als vorher.
Aber im Internet ist eben nichts kostenlos, irgend jemand muss immer bezahlen.

Nichts wird so heiß gegessen, wie es gekocht wird, und ich gehe nicht davon aus, dass das befürchtete Szenario eintreten wird - durch das AdSense-Programm lebt ja Google wiederum selbst davon, Traffic auf andere Webseiten umzuleiten.
 
Naja, es gibt ja noch Duckduckgo, Altavista und Webcrawler. :ROFLMAO:

DuckDuckGo
Yahoo! Suche
Metasuche

Aber der wwwgockel hat sich gut etabliert. ;)

@Threepwood
Unter Suchanfrage "Yezabel Esclarmunde" bei Duckduckgo bekomme ich auch 6 hits! ^^

Gute Idee, wenn jede andere Suchmaschine auch das machen würde, was google macht. Echte Ergebnisse liefern ;)
Ich zeig dir mal was ich meine:

Nur google liefert tatsächliche Ergebnisse. Alle anderen nur Schrott. Ich möcht lieber nicht wissen, wieviele Leute auf brauchbare Ergebnisse verzichtet haben, nur weil sie google meiden.


@Supi: nein nein, Keyword Spam meine ich damit nicht. Sondern eher aktualisierte Webseiten, geänderte Inhalte oder sonstwas. Deswegen auch der Hinweis mit dem Cache.
 
Sehr oft wünsche ich mir den Button "Aus dem Google Cache anzeigen"..
Probiers mal hiermit, läuft in allen üblichen Browsern mit der passenden Erweiterung und in einem sogar einfach so.
Ich möcht lieber nicht wissen, wieviele Leute auf brauchbare Ergebnisse verzichtet haben, nur weil sie google meiden.
Ich meide Google schon seit ein paar Jahren so weit wie möglich, bekomme gute Ergebnisse und vermisse nichts.
 
Also habe den Artikel nur überflogen, aber nirgends gesehen, dass nicht mehr zu Webseiten verlinkt werden soll. Was sich aber auf jeden Fall ändern wird ist die Art und Weise wie gesucht wird. Aktuell sucht man ja nur nach Keywords. Wenn man z.B. wissen möchte, welcher Fluss in Dresden fließt sucht man nach "Fluss, Dresden" mit der semantischen Suche von Google wird man seine Frage direkt eingeben können: "Welcher Fluss fließt durch Dresden?" und Google wird die Webseiten mit den Antworten ausspucken anstatt ALLE Webseiten auf denen die Keywords "Fluss und Dresden" vorkommen.
 
Genau das ist geplant - außerdem wird Google über den Suchergebnissen noch den Satz "Durch Dresden fließt die Elbe" anzeigen und damit den Besuch der Webseiten überflüssig machen.
Für den Anwender eine angenehme Sache, für die Betreiber der Seiten aber ein Nachteil.
Es wird nicht mal etwas nützen, wenn sich alle Webmaster der Welt aus dem Google Index streichen lassen, denn die Informationen werden ja schon seit Jahren gesammelt, und an Allgemeinwissen gibt es auch kein Urheberrecht.

Mit ein bisschen Verschwörungstheorie im Hinterkopf könnte man auf den Gedanken kommen, es sei von Anfang an der Masterplan gewesen, das Internet komplett in sich aufzusaugen. Nun ist aber neben Google noch das schwarze Loch Facebook aufgegangen, das wird ein interessanter Kampf - mal sehen, was am Ende noch vom Internet übrig bleibt.
 
So lange ca. 80% des öffentlichen Webs noch von keiner Suchmaschine erfasst werden, mache ich mit um die Zukunft für für weitere Suchmaschinen keinen nennenswerten Kopf. Glücklicherweise sind die Leute in anderen Ländern nicht ganz so Goggle fixiert wie wir Deutschen, somit wird es auch weiterhin Alternativen geben ...

Zum sterben kleiner Seiten: Nun ja, haben die Webmaster nicht Jahre lang ihre Seiten nahezu ausschließlich "für Google optimiert" und sich darauf verlassen, dass die Besucherströme von dort kommen? Altavista hatte mal die gleiche Position wie Google, ist aber auch heimlich still und leise weggestorben - und die Webseiten haben es überlebt und wurden weiterhin gefunden, man müsste mal schauen, wie unsere Vorfahren das gemacht haben.

Uups? Wir waren die Ersten? Tja, dann werden wir uns einfach mal dran erinnern müssen, was wir damals gemacht haben. War da nicht mal was mit "aus der Vergangenheit lernen"? :D


BTW: Es gab auch einmal eine echte deutsche Suchmaschine, keine meta Suchmaschine, die andere abklappert und die Ergebnisse zusammenstellt, sondern eine mit eigenem Crawler, wie hieß die eigentlich?
 
*lach* ich musste nun echt grübeln was das bedeutet.. aber du hast recht, aber kann passieren ;)
Aber nun kommts: Yahoo bemerkts auch nicht. Google schon. Allerdings will Google auch Berling mit Berlin austauschen, aber das ist dann so offensichtlich dass man es bemerken müsste.
Yahoo ist dann mit 4 Treffern (3 Shoplinks, 1 Messebericht) auf Platz zwei.
 
wirst du langsam alt?
Ich werde es nicht, ich BIN es.
Nein:
(...) keine meta Suchmaschine, die andere abklappert und die Ergebnisse zusammenstellt, (...)
:ätsch


btw: Ich vermisse kart00, ujiko und cuil.

Cuil z.B. hatt einen deutlich größeren und besseren Index als Google, und es gab da auch etwas, was cpedia genannt wurde. Darin wurden live zur Suche Inhalte aus Webseiten zu einem menschenlesbaren Artikel mit Verlinkungen zusammengestellt, teilweise las sich das wie in der Wikipedia. Sehr praktisch, um zu erkennen, in welchem Zusammenhang etwas stand, wenn man eine Recherche machte und nicht nur eine einfache Suche.

Kart00 und ujiko waren grafische Meta-Suchmaschinen. Man gab ein Wort ein, es wurde einem eine Wolke mit Ergebnissen angezeigt (kleine Vorschaubildchen der Webseiten, beim Hovern die passenden Textstellen) die mit Linien verknüpft waren an denen die Begriffe standen, mit denen die Webseiten verknüpft sind. Man konnte dann auf die Verknüpfungsbegriffe klicken um die Suche einzugrenzen und hatte innerhalb kürzester Zeit genau die passende Seite gefunden, auf der auch wirklich das stand, was man wissen wollte. Das Beste war, dass man auch direkt anhand der Vorschauen sehen könnte, ob ein Verknüpfungsbegriff überhaupt in die richtige Richtung ging.


Alle 3 sind kaputt gegangen, weil sie nicht genügend Werbeeinnahmen bekamen um den Betrieb aufrecht zu erhalten.
 
Zuletzt bearbeitet:
Nun: Google ist da besser:) Erstmal vom Budget her und auch wegen Google+ denn wie es mir scheint mögen die Facebook nicht so. Wie kann es sein, dass Facebook Seiten kaum bei Google gut gelistet sind? Böse Zungen behaupten das G+ auch bald in der Suche bei Google auftauchen wird...Abwarten und Tee trinken..
 
Das wird nicht nur so kommen, das ist bereits so, und wirkt sich besonders gravierend aus, wenn man selbst einen Google+ Account hat.
Ich freue mich laufend, dass ich meine Seiten so weit oben bei Google finde - das kommt aber dummerweise nur daher, weil ich sie selbst mit +1 bewertet habe :D.
 
Oben