En las últimas décadas el crecimiento en la capacidad de procesamiento de las computadoras ha sido exponencial. Sistemas complejos como la predicción del clima, por ejemplo, requiere de muchísima capacidad de cómputo y la limitación principal es el costo de estos análisis. Sin embargo, hay trabajos novedosos, como el presentado por algunos investigadores que diseñaron un nuevo algoritmo que puede resolver problemas con mucha facilidad, incluso usando el cómputo accesible a todos.
Los investigadores del Instituto Johannes Gutenberg, de la Universidad de Mainz, en Alemania, junto con los de la Università della Svizzera italiana en Lugano, Suiza, han mostrado un muy interesante algoritmo que puede resolver notablemente problemas complejos, por ejemplo, el clima.
Los límites del crecimiento exponencial
La ley de Moore, que es una observación educada básicamente, dice que el poder de cómputo se duplica cada dos años. Sin embargo, en los últimos cinco años, probablemente el crecimiento en el poder de cómputo se ha acelerado, «violando» la ley de Moore. Pero el asunto es que no se puede crecer indefinidamente.
Por ejemplo, la capacidad para introducir más transistores en un procesador está llegando a su límite físico y el intentar seguir más adelante genera comportamientos indeseables ya a nivel atómico, por lo que es evidente que esta tecnología está llegando a su límite.
No obstante esto, la profesora Susanne Gerber, especialista en bioinformática en Mainz, junto con el profesor Illia Horenko, de la menciona universidad italiana, han desarrollado una técnica para hacer complicadísimos cálculos a bajo costo y con alta confiabilidad.
Gerber y Horenko, junto con los co-autores del artículo técnico que han presentado, han resumido sus conceptos en donde básicamente «el método nos permite llevar cálculos complejos en una PC estándar, lo que antes hubiese requerido una supercomputadora», dice Horenko.
Problemas como el del clima pueden ser atacado por este nuevo algoritmo, pero los investigadores ven otras aplicaciones en bioinformática, análisis de imágenes y diagnóstico médico.
Las ideas de este nuevo algoritmo
El artículo presentado es el resultado de muchos años de trabajo en este nuevo enfoque. De acuerdo a Gerber y a Horenko, el proceso se basa en el principio del Lego, que básicamente significa que un problema puede partirse en elementos más chicos, es decir, a estados discretos o patrones. Con un par de patrones (también llamados componentes), grandes volúmenes de datos pueden ser analizados con predicción en el comportamiento futuro.
«Por ejemplo, usando el algoritmo SPA, podríamos hacer predicciones sobre las temperaturas de la superficie de Europa con un día de anticipación con un error de solamente 0.75 grados Celsius», comenta Gerber.
Todo esto puede trabajarse en una PC ordinaria e increíblemente es un 40% mejor que los sistemas de cómputo mucho más costosos.
SPA significa Scalable Probabilistic Approximation, lo cual es un concepto matemático. El método podría ser muy útil cuando hay que procesar un gran volumen de datos. Hay aplicaciones evidentes en biología (conteo y clasificación de células), análisis automático de electroencefalogramas, entre otras muchas aplicaciones. Hay además ideas para aplicar esto en imágenes de mamografías, que podrían analizarse de manera tal que pudiese saberse la necesidad de biopsias, por ejemplo.