54 Discuss˜ao e conclus˜ao
modelo, as estruturas anatˆomicas ser˜ao alteradas durante a normaliza¸c˜ao. Ent˜ao,
pode-se ao inv´es de identificar as varia¸c˜oes existentes entre as amostras, caracterizar
as diferen¸cas relativas ao processo de normaliza¸c˜ao. Neste caso, pode-se dizer que h´a
uma linha tˆenue entre as varia¸c˜oes originais nas imagens e as regi˜oes alteradas du-
rante a etapa de registro das imagens. No entanto, um classificador baseado no LDA
como o utilizado, procura minimizar a varia¸c˜ao intraclasse, em contrapartida, busca
maximizar as varia¸c˜ao interclasses. Consequentemente, o impacto de varia¸c˜oes no
processo de normaliza¸c˜ao ´e reduzido.
Apesar da esquizofrenia ter um diagn´ostico de dif´ıcil execu¸c˜ao, ou seja, ainda
n˜ao existe uma maneira de fazer a correta separa¸c˜ao entre as amostras, ao assumir
apenas o conjunto de amostras utilizado, foi poss´ıvel tra¸car um hiperplano que
separou corretamente as amostras. Isto significa que se baseando nas amostras
adotadas foi poss´ıvel separ´a-las linearmente como pode ser visualizado na se¸c˜ao 4.2.
No entanto, em futuras an´alises baseando-se nos conceitos aqui apresentados, podem
ser necess´arios m´etodos que consigam realizar a separa¸c˜ao onde n˜ao seja poss´ıvel
separar as classes linearmente, como a ado¸c˜ao, por exemplo, de classificadores n˜ao
gaussianos.
Adicionalmente, a dimens˜ao ´e reduzida ao se aplicar o PCA, tal fato pode con-
tribuir para a incidˆencia de ru´ıdos, contudo, ao se utilizar apenas os autovetores que
contˆem a informa¸c˜ao mais significante (maiores que zero), o impacto da redu¸c˜ao de
dimens˜ao ´e reduzido sobre os dados, de maneira que seja poss´ıvel o uso desta aborda-
gem. Al´em disso, ´e importante ressaltar a necessidade de se realizar tal procedimento
para que seja vi´avel a aplica¸c˜ao computacional da metodologia aqui proposta. Ou
seja, cada imagem original representa um ponto em um espa¸co N-dimensional (para
N o n´umero de voxels, ou seja, N = 91 × 109 × 91 = 902629) ap´os a aplica¸c˜ao do
PCA a dimens˜ao ´e reduzida para n amostras de dimens˜ao m (onde m = N −1 = 67)
o conjunto de dados sofre assim uma dr´astica redu¸c˜ao de tamanho, o que viabiliza o
uso computacional. Ent˜ao, este processo garante que os m principais componentes
possam substituir as N vari´aveis do conjunto de amostras original, ou seja, tem-se
reduzido o conjunto de amostras original para um conjunto de dados consistindo em
n medidas de m componentes principais (Kitani et al. 2006).
Neste trabalho, utilizou-se um n´umero muito menor de imagens em rela¸c˜ao aos
voxels, assim ´e poss´ıvel que o ponto definido como caracter´ıstica mais discriminante
n˜ao seja a que separa melhor as amostras. Al´em disso, para um novo conjunto de
amostras, tal caracter´ıstica pode n˜ao realizar a separa¸c˜ao das classes. Este problema,
conhecido por problema da dimensionalidade, teria seu impacto reduzido caso o n´u-
mero de amostras fosse pr´oximo ao de padr˜oes (caracter´ısticas), isto ´e, se o n´umero
de imagens n˜ao fosse muito diferente do n´umero de voxels. Por´em, em um ambiente
real ´e invi´avel a obten¸c˜ao de um n´umero t˜ao alto de dados amostrais, principalmente
em se tratando de imagens de ressonˆancia magn´etica sobre determinada patologia.
Adicionalmente, ´e poss´ıvel mensurar atrav´es de erros estat´ısticos a representividade
do ponto encontrado pelo classificador, contudo, o foco deste trabalho ´e buscar por
regi˜oes neuroanatˆomicas na imagem, assim n˜ao foram aplicados tais testes. Po-