Ir al contenido principal

¿El regreso de las computadoras analógicas? Así pueden revolucionar la inteligencia artificial...

Por siglos, las computadoras más poderosas no usaban bits, ni pantallas ni algoritmos modernos. Eran computadoras analógicas, capaces de predecir eclipses, mareas y hasta guiar artillería. Luego llegaron los transistores y con ellos las computadoras digitales: más precisas, programables y versátiles. El resultado fue claro: lo digital ganó.

Pero hoy, algo curioso está ocurriendo. En un mundo dominado por inteligencia artificial, redes neuronales y GPUs, una tormenta perfecta de necesidades y limitaciones está reavivando el interés por las olvidadas computadoras analógicas.

¿Qué es una computadora analógica?

A diferencia de las digitales, las computadoras analógicas no operan con ceros y unos. Usan valores continuos, como voltajes o corrientes, para representar variables físicas. Conectando cables y componentes eléctricos, es posible modelar sistemas complejos como una masa oscilante, un resorte o incluso el famoso sistema de Lorenz (origen de la teoría del caos).

Son rápidas, eficientes energéticamente y sorprendentemente potentes para tareas específicas. Una suma, por ejemplo, puede hacerse simplemente conectando dos corrientes. ¿Multiplicaciones? Basta un resistor: el voltaje resultante será la multiplicación de corriente por resistencia.

Pero no todo es perfecto. Las analógicas no sirven para todo: son poco precisas, irrepetibles y especializadas. No, no podrás correr Word o ver Netflix en una de ellas.

¿Por qué están resurgiendo?

La respuesta está en la inteligencia artificial. Más concretamente, en cómo funciona una red neuronal.

Desde los primeros experimentos de Rosenblatt con el "perceptrón", hasta los sistemas modernos con millones de parámetros, las redes neuronales realizan una operación esencial: multiplicaciones de matrices entre activaciones y pesos. Y resulta que estas multiplicaciones pueden ejecutarse extremadamente bien en el mundo analógico.

Además, las redes neuronales no necesitan la perfección del cómputo digital. Si un algoritmo detecta que hay un 96% de probabilidad de que una imagen sea un gato, está bien. Lo importante es que se acerque, no que sea exacto al último decimal. Aquí, la inexactitud analógica se vuelve aceptable.

El caso de Mythic: chips analógicos para IA

Una startup en Texas llamada Mythic está liderando esta revolución. Su innovación: usar celdas flash, comúnmente empleadas para almacenar 1s y 0s, como resistores variables. Aplicando diferentes voltajes y cargando la celda con más o menos electrones, se obtiene una conductancia ajustable: justo lo que una red neuronal necesita para multiplicar.

El resultado es un chip capaz de realizar 25 billones de operaciones por segundo usando solo 3 watts de energía. Ideal para aplicaciones embebidas: cámaras de seguridad, dispositivos industriales, sistemas autónomos o incluso... el metaverso.

¿Analógico + digital? Lo mejor de ambos mundos

Eso sí, los chips analógicos no vienen a reemplazar lo digital. En la práctica, el cómputo se hace en bloques: una parte en el dominio analógico, otra en digital, y se alternan para evitar que las señales se distorsionen demasiado. Es una danza de eficiencia que combina lo mejor de ambos mundos.

Conclusión: ¿el futuro es analógico?

Durante décadas nos repetimos que lo digital era el futuro. Que todo lo demás—incluido ese revoltijo de cables y osciloscopios—era cosa de museos. Y sin embargo, aquí estamos: en plena era del deep learning, redescubriendo que un voltaje bien aplicado puede ser más útil que millones de transistores sudando la gota gorda.

Tal vez lo más paradójico es que, mientras soñamos con máquinas conscientes que piensen como humanos, nos damos cuenta de que nuestro cerebro tampoco es tan digital como pensábamos: dispara o no dispara, sí, pero también fluctúa, se adapta, y calcula con imprecisión creativa. ¿No será que, para construir una verdadera inteligencia artificial, lo que necesitamos no es más código... sino, simplemente, más caos (eléctrico)?

Después de todo, hemos pasado 70 años digitalizando todo —música, fotos, emociones, etc— para ahora descubrir que lo analógico puede ser más rápido, más barato, y quizás... más humano.


Fuente: https://youtu.be/qNtxODk_Lmk?si=LmcCqfDbAUWxd5Mb




Comentarios

Entradas populares de este blog

Parseadores: De la Criptografía Bélica al Procesamiento de Documentos para la Gestión

Introducción En un mundo impulsado por datos, la capacidad de extraer, interpretar y transformar información estructurada o desordenada es una ventaja estratégica. Aquí es donde entran en juego los parseadores : herramientas que permiten analizar y convertir cadenas de texto o estructuras de datos en formatos útiles para el procesamiento automatizado. Pero la historia de los parseadores va más allá del software moderno. Tiene raíces en la criptoanálisis de guerra, la lingüística formal y la teoría de autómatas , y ha evolucionado hasta convertirse en una piedra angular del procesamiento de documentos como hojas de cálculo, informes en Word o sistemas de gestión documental. ¿Qué es un parseador? Un parseador (del inglés parser ) es un componente de software que analiza sintácticamente una entrada —como texto, código fuente, o archivos estructurados— y genera una representación interna estructurada, comúnmente un árbol de análisis (parse tree o abstract syntax tree, AST). Esta es...

Convierte tu Wiimote en una pizarra digital (y sorprende a tu profe de informática en el año 2008)

En el universo del "hazlo tú mismo", hay invenciones que no sólo desafían al mercado, sino que -además- lo obligan a reiniciar su narrativa de obsolescencia programada. Una de ellas es la creación del investigador Johnny Chung Lee , quien allá por el 2008 (sí, cuando los netbooks eran lo máximo) convirtió el Wiimote de la Nintendo Wii en el corazón de una pizarra digital interactiva de bajo costo . ¿El resultado? Una solución brillante que costaba lo mismo que un almuerzo universitario. ¿De qué se trata? Aprovechando la cámara infrarroja incorporada en el Wiimote, Lee desarrolló un sistema que permitía detectar la posición de un lápiz con LED infrarrojo sobre una superficie proyectada. El Wiimote, conectado por Bluetooth al computador, se encargaba de seguir el punto de luz y convertirlo en coordenadas X/Y. Traducido: cualquier muro con proyector se transformaba en una pizarra digital interactiva . ¿Qué necesitas? Un Wiimote (sí, todavía se consiguen). Un lápiz i...

OpenCeluchile.info: la app que te ahorraba dinero antes de que existiera la portabilidad (y cuando llamar era un lujo)

Todo partió por una necesidad: evitar malgastar dinero llamando desde el celular . Porque en aquellos años —entre finales del 2008 e inicios del 2009, plena era de celulares con tapa y teclados físicos— hacer una llamada era un lujo , y recibir una, también. Literalmente: cada llamada era una decisión financiera . La conversación clave surgió una tarde, hablando con mi hermano sobre este dilema cotidiano. Nos preguntábamos cómo hacer para no caer en el error de llamar fuera de red —porque eso, en ese entonces, dolía en la factura o en la recarga. Él me comentó que existían algunas herramientas que permitían identificar la compañía de un número , pero que eran de pago y poco prácticas. La paradoja era evidente: tenías que gastar para evitar gastar más. Por esos días, yo había cursado en la universidad el ramo “ Computación I ”, donde aprendimos a programar en Java y nos introdujeron al mundo de J2ME , además de otros conceptos fundamentales como estructuras de datos, manejo de archiv...