26.02.2014 Aufrufe

PC Magazin Premium XXL Das WLAN Service Pack - Tools & Tricks (Vorschau)

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

TIPPS & TRICKS<br />

rer haben einen <strong>Service</strong> eingerichtet, der Ihnen sofort<br />

eine Wegwerf-E-Mail zur Verfügung stellt. Erhhaltene<br />

Mails rufen Sie über ein Webinterface ab. Verwenden<br />

Sie zusätzlich das TOR-Netzwerk, bleiben Sie nicht<br />

nur von Spam-Mails verschont, sondern auch völlig<br />

anonym. Den <strong>Service</strong> des Chaos Computer Clubs finden<br />

Sie unter https://anonbox.net. Allerdings ist das Zertifikat<br />

der Seite nicht gültig.<br />

ok<br />

Der <strong>Service</strong> von Anonbox.<br />

net hilft Ihnen, sich<br />

vor Spam-E-Mails zu<br />

schützen.<br />

Suchmaschinen<br />

Nicht indizierte Webseiten aufspüren<br />

Jeder Webmaster kann Webseiten vor dem Zugriff und der Indizierung durch eine Suchmaschine schützen. Wie<br />

Sie dennoch an nicht aufgelistete Verzeichnisse und Webseiten kommen, zeigen wir mit diesem Workshop.<br />

Webmaster, die ihre Inhalte vor den<br />

großen Suchkraken im Internet<br />

schützen wollen, greifen auf eine Konvention<br />

zurück, an die sich alle namhaften<br />

Suchmaschinen halten. Ins Rootverzeichnis<br />

des Webservers legen sie eine<br />

Datei mit der Bezeichnung robots.txt, die<br />

alle Verzeichnisse aufführt, die von dem<br />

Suchkraken nicht besucht und nicht indiziert<br />

werden darf. In einer Suchanfrage<br />

würden diese Verzeichnisse und deren<br />

Inhalte also nicht aufgeführt – dennoch<br />

sind sie aber da und abrufbar. Den Vorgang<br />

erklären wir exemplarisch:<br />

1. Starten Sie Google oder eine andere<br />

Suchmaschine und geben Sie nach folgendem<br />

Schema eine Suchanfrage in die<br />

Maske ein, um auf einem bestimmten<br />

Webserver herauszufinden, ob der Webmaster<br />

gezielt Verzeichnisse versteckt:<br />

robots.txt disallow filetype:txt<br />

site:whitehouse.gov<br />

Beachten Sie, dass nach dem Doppelpunkt<br />

nie ein Leerzeichen steht. Wenn Sie vor<br />

robots.txt noch ein Pluszeichen (+) setzen,<br />

schränkt das die Suche zusätzlich ein,<br />

denn dann werden ausschließlich Ergebnisse<br />

angezeigt, die dieses Suchkriterium<br />

erfüllen. <strong>Das</strong>s die Suche nach der robots.<br />

txt-Datei überhaupt funktioniert, liegt daran,<br />

dass diese Datei selbst nicht von der<br />

Indizierung bei den Suchmaschinen ausgeschlossen<br />

wurde.<br />

Gesucht wird nach einer bestimmten Datei,<br />

der robots.txt mit dem Inhalt „disallow“;<br />

ist dieses Merkmal nicht vorhanden,<br />

dann hat die Datei keinerlei Auswirkungen<br />

und der Webmaster offenbar nichts<br />

zu verbergen. „Filetype“ geben wir deshalb<br />

an, damit alle Artikel über die Endung<br />

txt im Netz nicht erscheinen und<br />

die Web adresse geben wir an, weil wir ja<br />

auf einem bestimmten Server versteckte<br />

Informationen vermuten – in unserem<br />

Beispiel, den Regierungssitz des amerikanischen<br />

Präsidenten.<br />

2. Im Suchergebnnis klicken Sie nun auf<br />

die Datei robots.txt, die sich in Ihrem<br />

Browser problemlos öffnen sollte. Die Auflistung<br />

der Verzeichnisse und deren Namen<br />

geben für gewöhnlich einen Hinweis<br />

auf deren Inhalt. Sie müssen nun lediglich<br />

die Serveradresse mit der Verzeichnisadresse<br />

zu einer URL verknüpfen und in<br />

die Adressleiste des Browsers einfügen,<br />

um einen direkten Zugriffsversuch auf<br />

das Verzeichnis zu unternehmen. Natürlich<br />

kann es sein, dass ein Verzeichniszugriff<br />

gesperrt ist. Erraten oder wissen Sie<br />

wie eine Datei in einem Verzeichnis heißt,<br />

dann haben Sie gute Chancen diese auch<br />

zu öffnen. In den allermeisten Fällen wird<br />

sich aber eine Webseite öffnen, über die<br />

Sie auch durch eine Verlinkung auf der<br />

Homepage gekommen wären, wie in unserem<br />

Beispiel vom White House.<br />

Links: Über eine<br />

Suchmaschine geben<br />

Sie eine direkte Suche<br />

nach einer robots.txt-<br />

Datei auf.<br />

Die robots.txt zeigt Ihnen die Verzeichnisstruktur<br />

auf dem Webserver an.<br />

Kombinieren Sie die URL<br />

mit der Verzeichnisstruktur,<br />

so können Sie<br />

damit Verzeichnisse aufrufen,<br />

die Google nicht<br />

als Ergebnis wieder gibt.<br />

<strong>PC</strong> <strong>Magazin</strong> 9/2013 www.pc-magazin.de 83

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!