quarta-feira, 21 de maio de 2014

História da Informática na Saúde do Brasil

No Brasil, a situação dessa especialidade era bastante diversa do que ocorria na quase totalidade dos países do hemisfério norte e europa, onde a informática médica contava com hardware e software avançados e abundância de recursos para o desenvolvimento e manutenção de sistemas que utilizavam tecnologia de ponta. No entanto, apesar das restrições impostas, inicialmente pelo estabelecimento de uma comissão para a coordenação de atividades na área da eletrônica (CAPRE) em 1972 e depois pela Lei Nacional de Informática, institucionalizada em novembro de 1984, a área de informática aplicada à saúde era estudada, acompanhada e desenvolvida por grupos isolados em todo o país. Destacam-se, entre outras, as iniciativas da Universidade Federal do Rio Grande do Sul, da Universidade Estadual de Campinas, da Universidade de São Paulo, da Escola Paulista de Medicina e da própria máquina do governo federal.
O divisor de águas da Informática em Saúde nacional ocorreu em 1986. O primeiro reconhecimento do grau de desenvolvimento nacional na área deu-se em um seminário realizado em Informática em Saúde em Brasília, por iniciativa do Ministério da Saúde. Os pesquisadores presentes resolveram então se organizar e fundaram em novembro de 1986 a Sociedade Brasileira de Informática em Saúde, durante o I Congresso Brasileiro de Informática em Saúde, presidido pelo Dr. Renato Sabbatini.

Em 1988, o governo federal, através do CNPQ, SEI e outros, efetuou um estudo, envolvendo dezenas de colaboradores, visando um Plano Nacional de Desenvolvimento da Informática em Saúde (que, infelizmente, acabou engavetado). A SBIS produziu também o primeiro "Quem é Quem na Informática em Saúde no Brasil". Atualmente a SBIS e vários centros de pesquisa desenvolvem programas de colaboração com o MS (DATASUS) visando padronização de componentes e linguagens, estabelecimento do Cartão de Saúde e outros.



Informática na Medicina

Na medicina, o uso dos computadores vão desde o diagnóstico da doença para a monitorização dos sinais vitais em nível operatório e pós-operatório do paciente. Permite operações altamente especializadas, cirurgias a lazer, raio-x, exames de ultra-som, tomografias e muitos mais.
Atualmente, o computador é muito aplicado no campo da medicina. A utilização de multimédia pode ser integrados num único produto dos meios de comunicação e da possibilidade de interação que traz o computador. Pode ser útil até mesmo para qualquer tipo de software educacional, especialmente para o que está sendo desenvolvido para disciplinas médicas. Realidade multimédia e virtual em três dimensões, vídeos, etc, e sua mais importante característica:. Maior interação.
No mesmo olhar, graças à aplicação, realizar as operações são alcançados agarrado pacientes eficaz e segura. Os benefícios proporcionados pelo software no campo, foram melhorados ainda mais porque os avanços da tecnologia, os sistemas operacionais oferecem uma grande ajuda na tomada de medicamentos, graças ao apoio fornecido pelo software que permitem a visualização do processo de produção de medicamento.




Um vídeo mostrando um pouco da importância da Computação na Medicina


O Papel da Tecnologia na Medicina

A medicina moderna e a tecnologia parecem inseparáveis. A descoberta dos raios X pelo físico alemão Wilhelm Conrad Roentgen (1845-1923) em 1895 possibilitou a observação dos órgãos internos do corpo. Isso facilitou o diagnóstico de fraturas ósseas, câncer, e outras doenças. Pouco tempo depois, Willem Einthoven (1860-1927), fisiologista holandês, inventou o primeiro eletrocardiógrafo. O aparelho registra a atividade elétrica dos músculos do coração, possibilitando o monitoramento de problemas cardíacos. Em meados do século, cateteres—tubos ocos e finos que podem ser usados para drenar fluidos ou administrar medicamentos—foram inseridos no coração e no fígado. Muitos dos avanços ocorreram na área de investigação por imagem, permitindo aos médicos ver os órgãos sem abrir o corpo. As tecnologias incluem imagens por ultra-som, tomografia computadorizada, tomografia por emissão de pósitrons (PET) e ressonância magnética. O diagnóstico, embora ainda seja uma arte, tornou-se também uma ciência.






As imagens mostram diferentes tomografias da cabeça e do pescoço humanos. As tomografias e outras tecnologias de investigação por imagem levaram a enormes avanços no diagnóstico de doenças sem cirurgias desnecessárias.





Os raios X, evidentemente, são uma forma de radiação, que é nociva ao organismo. Os radiologistas aprenderam a usar as doses mais baixas possíveis na investigação por imagens. Eles também aprenderam a usar raios X direcionados e outras formas de radiação para destruir células indesejadas. Conseqüentemente, a radiação se tornou um tratamento padrão para o câncer.
Talvez nenhuma outra área tenha sido tão afetada pela tecnologia como a cirurgia. As várias tecnologias de varredura levaram os cirurgiões às partes mais profundas do corpo, permitindo cirurgias invasivas radicais. Por outro lado, endoscópios flexíveis, baseados em tecnologia de fibra óptica, surgiram na década de 70. Eles permitiram aquilo que chamamos de cirurgia laparoscópica, na qual o endoscópio, equipado com um laser que corta como um bisturi, é inserido através de uma minúscula incisão. Esse tipo de cirurgia tornou-se comum para hérnias, vesículas biliares e rins, e joelhos.





A ressonância magnética por imagem (RMI) é outra ferramenta que facilitou o diagnóstico de doenças pelos médicos.













A diálise remove toxinas do sangue em pacientes com doença renal.









Evolução computacional de métodos de diagnósticos

Evolução da tomografia computadorizada

Os princípios básicos matemáticos da tomografia computadorizada foram desenvolvidos por Johan Randon, matemático austríaco em 1917.

Definição CT – procedimento radiológico de reconstrução matemática da imagem de um corte do corpo a partir de uma série de análises de densidades efetuadas pela rotação do conjunto tubo raios X e detectores.



A TC como método de diagnóstico por meio de imagens surgiu no ano de 1971, quando foram realizadas as primeiras imagens de crânio. No entanto, essa tecnologia só foi apresentada à sociedade científica no ano de 1972 por Godfrey Hounsfield.
















Entre os principais aspectos da evolução deste método pode-se destacar: mudanças nas gerações dos equipamentos que eram acompanhadas de significativa redução nos tempos de exame. Um exame de crânio passou de mais de 1 hora para alguns segundos. Durante a aquisição de um corte tomográfico, enquanto o tubo gira ao redor do paciente, um feixe de radiação é emitido, incidindo nos detectores que coletam as informações obtidas a partir de múltiplas projeções. As imagens dos equipamentos de 1ª geração eram formadas a partir do sinal obtido nos detectores. Cerca de 160 exposições eram realizadas ao longo de uma direção (varredura linear). Após completar esta varredura, o conjunto tubo detectores fazia um movimento de rotação de 1° e uma nova varredura linear iniciava-se.

Quando visualizamos uma imagem de CT estamos observando vários elementos de volume (Voxel) da fatia de corte reconstruída. Cada Voxel é representado na Matriz pelo menor elemento de imagem (Pixel), sendo que a altura do Voxel é a própria espessura do corte. Matriz é a quantidade de linhas e colunas responsáveis pela formação da imagem digital.


Quanto maior a quantidade de linhas e colunas melhor será a resolução da imagem.








4 RESOLUÇÃO DE IMAGEM

O FOV (Field of View) ou o campo de visão, refere-se a área examinada pela tomografia. Normalmente o FOV é definido em centímetros. Assim, o tamanho do Pixel é dado pela razão entre FOV e MATRIZ que pode variar de 256 x 256, 512 x 512 ou 1024 x 1024. RESOLUÇÃO DE IMAGEM PRIMEIRA GERAÇÃO.

Após a primeira varredura, o tubo sofria uma rotação de 1° para iniciar nova varredura e coletar outros 160 feixes na nova projeção. Tempo de aquisição de um único corte podia chegar a cinco minutos e um estudo completo durava mais de uma hora.








O equipamento de 2ª geração trouxe como inovação a aquisição de dados a partir de um conjunto de detectores e não mais um único como era o equipamento de 1ª geração.








O feixe de RX passou a ser laminar (forma de leque) suficiente para cobrir o conjunto de detectores.

Nesses equipamentos, eliminou-se a varredura linear. A partir de então, os tubos mudaram do procedimento de varredura a cada grau e passaram a realizar movimentos de 360º não contínuos.








A 4ª geração surgiu com um conjunto de detectores distribuídos ao longo dos 360° do gantry, ocupando assim todo o anel. Principal inovação foi a tecnologia Slip-ring.








Houve uma melhora significativa, mas devido ao alto custo, inviabilizou a produção.

QUINTA GERAÇÃO – CT por feixe de elétrons
Esses equipamentos apresentam como principal característica a ausência de tubo de raios X convencionais. Nesses equipamentos os elétrons são acelerados e colidem com um enorme alvo que ocupa 180° da abertura do gantry e os outros 180° são ocupados por detectores. Principal vantagem é a ausência de movimentos de detectores e tubo de raios X como observado nos demais equipamentos de TC.









E assim novidades a cada dia vem aparecendo com o uso da tecnologia, da computação para que assim possa existir melhores métodos de diagnósticos.