Não. Quando um navegador Carrega uma página normalmente, ele faz o download do documento html indicado pela URL e começa a renderizar o código. Primeiro, ele lerá a seção head e começará a carregar cada documento listado lá (geralmente arquivos de script, folhas de estilo css, etc). Ele adicionará código de script ao documento e renderizará a marcação, executando scripts onLoad, talvez carregando conteúdo remoto adicional e, por fim, aplicando as regras de CSS em ordem. Esta é uma página totalmente renderizada.
Quando você não usa um mecanismo para renderizar a página (usando o navegador View Source ou ferramentas como wget / curl), você simplesmente obtém o documento de marcação original. Nenhum sublink é processado e nenhuma origem remota é importada.
De um modo geral, se você quiser examinar o conteúdo renderizado, use as ferramentas do Developer disponíveis nos navegadores mais comuns (geralmente no F12, para que você possa simplesmente tocar nele).
Um amigo meu escreveu uma vez um scraper para um site, onde o conteúdo foi injetado na página em tempo de execução por uma estrutura de CMS. Ela teve que incorporar um controle de navegador invisível em seu aplicativo e renderizar a página totalmente com scripts (os anúncios em flash sem janelas apareceriam do nada) antes que ela pudesse acessar a fonte completa para analisá-la em busca de um link para o conteúdo.