User-Agent: (Имя поисковых роботов которые смогут сканировать сайт) Их имена можете посмотреть в интернете а чтобы сайт видели ВСЕ роботы просто пишите символ "*".
Dissalow: (Какие страницы НЕЛЬЗЯ индексировать) например site.com/admin
Host: Здесь указывается адрес вашего сайта.
Sitemap: Путь к файлу sitemap.xml
После того как мы все написали нам надо сохранить текстовый документ как robots и загрузить в корень сайта. robots.txt у меня выглядит так
User-agent: *
Disallow: /photo
Disallow: /index/igry/0-4
Disallow: /gb
Disallow: /index/0-3
Disallow: /stuff
Disallow: /blog
Disallow: /video
Host: http://prikolyssimo.ucoz.org
Sitemap: prikolyssimo.ucoz.org/sitemap.xml
Ну вот и все)))