Query

Was bedeutet Query? Übersetzung: Anfrage, Suchanfrage Definition: Ein Query ist hier nur ein anderer Ausdruck für Suchanfrage. Query wird in der Google-URL mit der Variable q abgekürzt. Das sieht dann z. B. so aus https://www.google.de/#q=Urlaub. Ein Query  kann natürlich auch mehrere Wörter umfassen, wie hier z.B. https://www.google.de/#q=Wohin+in+den+Urlaub Allgemein versteht man unter Query eine Datenabfrage an einer Datenbank. Über bestimmte Kommandos werden Informationen einer Datenbank abgefragt. Wenn man mehrere unterschiedliche Datenabfragen tätigt, spricht man auch von Queries. Weitere Fragen und Begriffe die zum Thema Query

Weiter lesen
Was bedeutet Ranking?

Ranking

Was bedeutet Ranking? Übersetzung: Die Position einer Webseite in einem Suchergebnis Definition: Der Begriff Ranking (Englisch) bedeutet so viel wie Rangordnung.  Im Zusammenhang mit der Optimierung einer Webseite wird oft der Begriff Ranking verwendet. Er bezeichnet die aktuelle Position von Webseiten in einem Suchergebnis zu einem bestimmten Keyword. Es gilt immer, je besser die durchschnittlichen Rankings zu den relevanten Keywords einer Webseite sind, umso erfolgreicher ist die Website.

Weiter lesen

Rekurrentes Neuronales Netz

Ein Rekurrentes neuronales Netz, kurz RNN, ist ein rückgekoppeltes neuronales Netz. Die Neuronen in unserem Gehirn sind auf diese Weise verschaltet. Künstliche RNNs werden dafür verwendet um zeitlich codierte Informationen zu erkennen. Anwendungsbeispiele für Rekurrente Neuronale Netze Die Handschrifterkennung Die Spracherkennung Die Sprachübersetzung RNNs werden hier als LSTM genutzt und sind für den großen Fortschritt in der Künstlichen Intellingenz hauptverantwortlich. Mit dem Begriff werden auch die Schlagwörter Deep Learning und Maschinen Learning eng verknüpft. Vortrag: Künstliche Intelligenz wird alles Ändern Eine außerordentliche Kapazität auf diesem Forschungsgebiet ist Prof. Dr. Jürgen Schmidhuber. Er ist Scientific Director am Schweizer Forschungsinstitut für Künstliche Intelligenz IDSIA (Univ. Lugano & SUPSI). Als einer der weltweit bekanntesten Experten für künstliche Intelligenz sprach Schmidhuber im Rahmen der 2. Big-Data-Konferenz von Horváth & Partners im letzten Jahr die Key Note. In seinem Vortrag „Künstliche Intelligenz wird alles ändern“ beschreibt er den Aufstieg der künstlichen Intelligenz, dem Hauptthema des gegenwärtigen Jahrhunderts, das alle […]

Weiter lesen
Was ist ein Link?

Reziproker Link

Was ist ein Reziproker Link? Alternative Beschreibung: gegenseitiger Link Definition: Ein Reziproker Link ist, wenn eine fremde Webseite auf die eigene Webseite verlinkt und zuvor ein Backlink auf ebendiese fremde Seite gesetzt wurde.  Bei gleichzeitiger Linksetzung unterstellt Google einen manipulativen gegenseitigen Linktausch. Ist ein Reziproker Link schlecht? Aus Sicht eines Suchmaschinenoptimierers ist ein reziproker Linktausch nicht optimal, aus oben genannten Gründen.  Aus Nutzersicht kann er durchaus sinnvoll sein, beispielsweise immer dann, wenn man sich über eine Firma und dessen Geschäftspartnerschaften erkundigen möchte.  Oder über all da, wo eine gegenseitige Verlinken beiden Seitenbetreibern, als auch Besuchern der Seiten nützlich ist. Aus SEO-Sicht wäre ein Linktausch nach dem Muster Domain-A linkt zu Domain-B und  Domain-C linkt Domain-A besser.  Hierbei sind also 3 unterschiedliche Domains im Spiel. Die zweite Linktausch Variante Domain-A linkt zu Domain-B und  Domain-C linkt Domain-D ist meiner Meinung nach noch besser. Allerdings benötigen beide Linktauschgpartner jeweils 2 Domains.

Weiter lesen

Robots.txt

Die Robots.txt ist eine kleine Textdatei, die den Suchmaschinenbots und Crawlern von Internetdiensten sagt, wie ein „Bot“ sich auf der Website zu verhalten hat. Sie steuer also das Crawl-Verhalten. Man kann mit ihr bestimmte Verzeichnisse oder Dateien sperren und den Bot hinweise geben, wo er zum Beispiel eine XML-Sitemap findet. Wie finde ich die Robots.txt? Die Robots.txt ist gewöhnlich im Root-Verzeichnis des Webservers  als Textdatei hinterlegt. Jeder kann die Robots.txt einsehen. Au fremde SEOs können sich über Deine „Crawling-Politik“ erkundigen. Dafür muss man im Browser nur die gewünschte Domain in die Adresszeile eingeben und dann nach dem Schrägstrich „robots.txt“ eintragen, schon kann man im Browser sehen welche Verzeichnisse und Dateien ( Ressourcen) der Webmaster für den Googlebot und andere gesperrt hat. Auch in der Google Search Console könnt ihr die Robost.txt finden. Dort werden auch noch Infos zu eventuellen Fehlern der Datei angezeigt. Warum sollte Dich die Robots.txt von anderen […]

Weiter lesen