Robot Exclusion Standard

Fra Wikipedia, den frie encyklopædi
Gå til: navigation, søg
Disambig bordered fade.svg For alternative betydninger, se Robot (flertydig). (Se også artikler, som begynder med Robot (flertydig))

Robot Exclusion Standard, også kendt som Robots Exclusion Protocol eller robots.txt-protokol, er et værktøj til at hindre søgerobotter i at få adgang til hele eller en del af en hjemmeside, som ellers er offentligt tilgængelig. Robotter bruges ofte af søgemaskiner til at kategorisere og arkivere hjemmesider eller af webmasters til at korrekturlæse kildekode. Standarden er ikke relateret til, men kan bruges sammen med, sitemaps, en inkluderende robotstandard for hjemmesider.

Robots.txt er en fil, der bliver brugt af søgerobotter til at vise, hvad den skal/må bruge af data fra den aktuelle hjemmeside. Der er ikke nogen garanti for, at søgerobotten overholder brugen af robots.txt og dets indhold.

Eksterne henvisninger[redigér | redigér wikikode]

It Stub
Denne it-artikel er kun påbegyndt. Hvis du ved mere om emnet, kan du hjælpe Wikipedia ved at udvide den.