Eu acho que uma das razões é que a GPU pode permitir ser moderna. No x86 nós lidamos com uma arquitetura CISC que foi então modificada para o híbrido RISC / CISC. O PC moderno suporta 3 modos de operação ao mesmo tempo (16, 32 e 64 bits) e suporta tais instruções como adição decimal (quem precisa mesmo assim). Por outro lado, a GPU lida com 'linguagem' relativamente compatível com o domínio HL (OpenGL / DirectX) - suportada no lado da CPU (drivers). Isso significa que cada geração pode (e frequentemente gosta da transição de r100 / r200 para r300 / r400 ou r300 / r400 para r600 / r700 [não sei onde r500 é]) ter muitos de seus componentes internos removidos.
Agora imagine que podemos simplesmente substituir o X86-64 (que é de fato atualizado na arquitetura de 25 anos) por algo como o Itanium sem reescrever tudo. Ou algo parecido com o ARM. Algo que poderia ser atualizado para os requisitos modernos (não há necessidade de instruções lentas complexas como hoje ninguém precisa deles como ninguém está escrevendo em assembly - possivelmente mais instruções condicionais para evitar pular como em ARM etc).
Além disso, a GPU lida com problemas muito menos complexos - ou melhor, muito mais paralelizados. Ele não precisa fazer coisas como apoiar instruções de 25 anos de idade que alguém possa tê-las usado. Ele pode apenas tê-los emulado na CPU / por algumas instruções da GPU. Ele não precisa prever ramificações inseridas de uma maneira estranha só porque alguém pensou que isso economizaria espaço ou algo assim.
Como nota à parte - da última vez que construí um computador, havia cerca de 2: 2: 1: 1 entre o processador, a placa gráfica, a placa-mãe e o restante.