У Гугла есть СТРАННЫЕ моменты... например пишут о проблеме - дескать "страница просканирована но пока не индексирована" и типа мы должны эту проблему как-то решить... или Обнаружена не просканирована.
При том, что вручную можно совсем немного страниц добавить на индексацию,
Ну вот, как Гугл индексирует WASP.kz - сейчас скриншот сделал:
Из них:
Страница является копией. Канонический вариант не выбран пользователем - 1 524 страницы
Страница просканирована, но пока не проиндексирована - 6 485
Обнаружена, не проиндексирована - 918
И при этом Проиндексировано, несмотря на блокировку в файле robots.txt - 4 882 страницы...
Могу с уверенностью на 90% сказать - не проиндексированные страницы Гуглом по причине:
1 - ошибок - ВНИМАТЕЛЬНО прописывайте внутренние ссылки! Если вы ошибетесь, или потом удалите эту страницу, все это сразу будет отображаться в Гугле... А это часто бывает... Пример: если вы переносите посты на форуме или фотографии в фотогалерее и если это уже проиндексировано - будут ошибки! Так как адрес меняется... и если у вас на сайте, например, в статьях, есть ссылки на эти страницы - они становятся "битыми ссылками"...
2 - ошибки и глюки движка, а он у вас к тому же еще и устаревший! Могут создаваться страницы временные, и не удаляться из базы данных... Гугл все это сканирует и пытается индексировать...
3 - контент низкого качества! ЭТА ПРОБЛЕМА почти всегда присутствует! Если вроде бы нормальные страницы - но это крауд-контент, Гугл может месяцами и даже годами не индексировать такие страницы. Контент по любому надо ПОВЫШАТЬ В КАЧЕСТВЕ, даже если это платные страницы - пусть они нормально работают, чем вред приносят!
Что надо делать? Конечно анализировать эти страницы... одно можно закрыть в robots.txt другое закрывать в .htaccess
Но по любому - ошибки будут... на этом движке вам придется мириться со всем этим. Ну или вкладываться огромными деньгами, чтобы веб-мастера правили код - хотя бы самые критические моменты...