Na edição desta semana da revista Nature, uma equipe de pesquisadores da Universidade da Califórnia em Berkeley relata a criação de um sistema capaz, ainda que de modo rudimentar, de ler a mente humana, traduzindo o que se passa no córtex visual primário do cérebro. "Construímos um modelo de computador da parte inicial do sistema visual que é capaz de pegar uma imagem qualquer, como dado de entrada, e prever a atividade neural que será o dado de saída", explica o principal autor do trabalho, Jack Gallant.
De posse da previsão feita pelo computador, os pesquisadores são capazes de executar a operação oposta: comparar o gráfico gerado pelo programa com uma leitura real de ressonância magnética funcional (fMRI) e, assim, "adivinhar" para qual imagem o paciente está olhando. Nos testes descritos na Nature, realizados com dois voluntários – ambos co-autores do artigo -, o processo acertou a ‘adivinhação’ de 80% a 90% das vezes, para uma galeria de até mil imagens. Os pesquisadores estimam que num conjunto de 1 bilhão de imagens o sistema acertaria cerca de 20% das vezes.
Gallant acredita que o mesmo tipo de abordagem poderá funcionar para os demais sentidos – audição, olfato, paladar, tato -, mas não garante que seja possível chegar a ler emoções, por exemplo. A tecnologia pode ser aplicada na criação de interfaces entre cérebro e máquinas, para controle de próteses diretamente pelo pensamento.