Ссылки на noindex-страницы передают вес. А ссылки на страницы, закрытые в robots.txt — не передают (робот не может их прочитать). Решение зависит от метода блокировки.
Если страница закрыта через noindex
Робот заходит на страницу, видит noindex, не показывает в выдаче. Но входящие ссылки на эту страницу всё равно учитываются — вес передаётся.
Удалять ссылки? Нет. Страница с noindex может передавать вес дальше через свои исходящие ссылки. Она работает как «транзитный узел» во внутренней перелинковке.
Если страница закрыта через robots.txt
Робот не заходит на страницу вообще. Вес, переданный ей через ссылки — теряется. Это «чёрная дыра» ссылочного веса.
Удалять ссылки? Да, имеет смысл. Или лучше: уберите Disallow из robots.txt и используйте noindex вместо этого.
Если страница отдаёт 404/410
Ссылки на 404-страницы не передают вес — ни внешние, ни внутренние.
Что делать: настройте 301-редирект на ближайшую релевантную страницу, чтобы сохранить вес.
Рекомендация
Проведите аудит внутренних ссылок через Screaming Frog: найдите ссылки на noindex и blocked-by-robots страницы. Для robots.txt-блокировок — переведите на noindex. Для 404 — поставьте редиректы.