Wofür werden robots. txt-Dateien verwendet?
Eine robots.txt-Datei wird hauptsächlich zur Verwaltung des Crawler-Traffics auf deiner Website verwendet und dient üblicherweise dazu, eine Datei aus Google auszuschließen. Hierbei spielt auch der Dateityp eine Rolle.