Ir al contenido principal

¿El regreso de las computadoras analógicas? Así pueden revolucionar la inteligencia artificial...

Por siglos, las computadoras más poderosas no usaban bits, ni pantallas ni algoritmos modernos. Eran computadoras analógicas, capaces de predecir eclipses, mareas y hasta guiar artillería. Luego llegaron los transistores y con ellos las computadoras digitales: más precisas, programables y versátiles. El resultado fue claro: lo digital ganó.

Pero hoy, algo curioso está ocurriendo. En un mundo dominado por inteligencia artificial, redes neuronales y GPUs, una tormenta perfecta de necesidades y limitaciones está reavivando el interés por las olvidadas computadoras analógicas.

¿Qué es una computadora analógica?

A diferencia de las digitales, las computadoras analógicas no operan con ceros y unos. Usan valores continuos, como voltajes o corrientes, para representar variables físicas. Conectando cables y componentes eléctricos, es posible modelar sistemas complejos como una masa oscilante, un resorte o incluso el famoso sistema de Lorenz (origen de la teoría del caos).

Son rápidas, eficientes energéticamente y sorprendentemente potentes para tareas específicas. Una suma, por ejemplo, puede hacerse simplemente conectando dos corrientes. ¿Multiplicaciones? Basta un resistor: el voltaje resultante será la multiplicación de corriente por resistencia.

Pero no todo es perfecto. Las analógicas no sirven para todo: son poco precisas, irrepetibles y especializadas. No, no podrás correr Word o ver Netflix en una de ellas.

¿Por qué están resurgiendo?

La respuesta está en la inteligencia artificial. Más concretamente, en cómo funciona una red neuronal.

Desde los primeros experimentos de Rosenblatt con el "perceptrón", hasta los sistemas modernos con millones de parámetros, las redes neuronales realizan una operación esencial: multiplicaciones de matrices entre activaciones y pesos. Y resulta que estas multiplicaciones pueden ejecutarse extremadamente bien en el mundo analógico.

Además, las redes neuronales no necesitan la perfección del cómputo digital. Si un algoritmo detecta que hay un 96% de probabilidad de que una imagen sea un gato, está bien. Lo importante es que se acerque, no que sea exacto al último decimal. Aquí, la inexactitud analógica se vuelve aceptable.

El caso de Mythic: chips analógicos para IA

Una startup en Texas llamada Mythic está liderando esta revolución. Su innovación: usar celdas flash, comúnmente empleadas para almacenar 1s y 0s, como resistores variables. Aplicando diferentes voltajes y cargando la celda con más o menos electrones, se obtiene una conductancia ajustable: justo lo que una red neuronal necesita para multiplicar.

El resultado es un chip capaz de realizar 25 billones de operaciones por segundo usando solo 3 watts de energía. Ideal para aplicaciones embebidas: cámaras de seguridad, dispositivos industriales, sistemas autónomos o incluso... el metaverso.

¿Analógico + digital? Lo mejor de ambos mundos

Eso sí, los chips analógicos no vienen a reemplazar lo digital. En la práctica, el cómputo se hace en bloques: una parte en el dominio analógico, otra en digital, y se alternan para evitar que las señales se distorsionen demasiado. Es una danza de eficiencia que combina lo mejor de ambos mundos.

Conclusión: ¿el futuro es analógico?

Durante décadas nos repetimos que lo digital era el futuro. Que todo lo demás—incluido ese revoltijo de cables y osciloscopios—era cosa de museos. Y sin embargo, aquí estamos: en plena era del deep learning, redescubriendo que un voltaje bien aplicado puede ser más útil que millones de transistores sudando la gota gorda.

Tal vez lo más paradójico es que, mientras soñamos con máquinas conscientes que piensen como humanos, nos damos cuenta de que nuestro cerebro tampoco es tan digital como pensábamos: dispara o no dispara, sí, pero también fluctúa, se adapta, y calcula con imprecisión creativa. ¿No será que, para construir una verdadera inteligencia artificial, lo que necesitamos no es más código... sino, simplemente, más caos (eléctrico)?

Después de todo, hemos pasado 70 años digitalizando todo —música, fotos, emociones, etc— para ahora descubrir que lo analógico puede ser más rápido, más barato, y quizás... más humano.


Fuente: https://youtu.be/qNtxODk_Lmk?si=LmcCqfDbAUWxd5Mb




Comentarios

Entradas populares de este blog

Parseadores: De la Criptografía Bélica al Procesamiento de Documentos para la Gestión

Introducción En un mundo impulsado por datos, la capacidad de extraer, interpretar y transformar información estructurada o desordenada es una ventaja estratégica. Aquí es donde entran en juego los parseadores : herramientas que permiten analizar y convertir cadenas de texto o estructuras de datos en formatos útiles para el procesamiento automatizado. Pero la historia de los parseadores va más allá del software moderno. Tiene raíces en la criptoanálisis de guerra, la lingüística formal y la teoría de autómatas , y ha evolucionado hasta convertirse en una piedra angular del procesamiento de documentos como hojas de cálculo, informes en Word o sistemas de gestión documental. ¿Qué es un parseador? Un parseador (del inglés parser ) es un componente de software que analiza sintácticamente una entrada —como texto, código fuente, o archivos estructurados— y genera una representación interna estructurada, comúnmente un árbol de análisis (parse tree o abstract syntax tree, AST). Esta es...

Inteligencia de Negocios y Ciencia de Datos: Herramientas y Algoritmos clave

Introducción En el mundo actual, los datos no solo se almacenan: se transforman en decisiones . Desde dashboards ejecutivos hasta modelos predictivos complejos, los datos gobiernan la forma en que las organizaciones planean, actúan y evolucionan. Y en ese cruce entre negocio y tecnología surgen dos disciplinas que, aunque complementarias, tienen enfoques diferentes : la Inteligencia de Negocios (BI) y la Ciencia de Datos (Data Science) . Este artículo te mostrará cuáles son las herramientas más usadas , los algoritmos más comunes , y cómo aplicarlos en ejemplos caseros y reales que te ayudarán a internalizar cada concepto, incluso si recién comienzas. Diferencias conceptuales: BI vs Ciencia de Datos Aspecto Inteligencia de Negocios (BI) Ciencia de Datos (Data Science) Enfoque principal Análisis descriptivo e histórico Análisis predictivo y prescriptivo Preguntas que responde ¿Qué pasó? ¿Dónde? ¿Cómo fue el desempeño? ¿Qué pasará? ¿Por qué pasó? ¿Qué hacer? Tipo de usuario Ejecutivos,...