Eu me divirto.
As estatísticas do plano de execução que o SQL Server exibe na análise são as mesmas que ele usa para decidir que caminho tomar pra executar uma query. O custo I/O estimado não é baseado somente em leituras físicas, caso contrário o banco poderia acabar não decidindo pelo melhor caminho, por exemplo caso uma determinada página de índice esteja no buffer e um outro índice para a mesma tabela não. De qualquer forma procurei aqui pra ver se achava algo, não achei nada que dissesse que a estimativa I/O é sempre de leitura física. Não posso afirmar que é ou não, mas posso afirmar que a estimativa exibida é a mesma que ele usa pra si mesmo.
Então se o plano de execução "me enganou", ele enganou também o próprio banco de dados.
Fora isso, não vejo aplicação real para zilhões de núcleos em um servidor cuja tarefa seja apenas banco de dados e geralmente 1 ou 2 bases por máquina (real ou virtual), pelo simples fato de que nenhum banco de dados até então consegue escalar linearmente com quantos cores estiverem disponíveis. Creio que haja um limite de escalonamento, a menos que um mesmo servidor sirva várias bases de dados, mas esse não é a realidade da maioria deles e mesmo se fosse, haveria o limite da memória. Talvez com o aumento do cloud, mas isso ainda está bem longe de se tornar algo palpável. Até lá vamos ter que conviver com o sinônimo de que servidor = CPU-aholic? Não é bem assim.