Cienciaes.com

Cierta Ciencia Podcast - Cienciaes.com suscripción

Cierta Ciencia

En Cierta Ciencia, de la mano de la genetista Josefina Cano nos acercamos, cada quince días, al trabajo de muchos investigadores que están poniendo todo su empeño en desenredar la madeja de esa complejidad que nos ha convertido en los únicos animales que pueden y deben manejar a la naturaleza para beneficio mutuo. Hablamos de historias de la biología.

Internet y su cerebro funcionan muy parecido.

Cerebro e Internet - Cierta Ciencia Podcast - CienciaEs.com

A pesar de la enorme cantidad de tiempo que pasamos navegando por la Internet, bajando videos, música, escribiendo y recibiendo mensajes vía correo o las redes sociales o leyendo noticias, pocos de nosotros sabemos de las recetas matemáticas, algoritmos, que vuelven posible el realizar todas esas actividades.

La decisión de cómo dirigir el flujo de la información de una manera ágil y eficiente a través de un sistema de distribución que no tiene una “autoridad central”, fue una
prioridad para los fundadores de la Internet.

Ahora, un descubrimiento en el Instituto Salk nos cuenta de la existencia de un algoritmo que se usa tanto en la Internet como en el cerebro humano, un descubrimiento que nos ayuda a un mejor entendimiento de las redes neuronales y de las diseñadas por la ingeniería, con todo un potencial para, en un futuro, abordar mejor los problemas del aprendizaje.

“Los fundadores de la Internet pasaron una buena cantidad de tiempo sopesando la mejor manera de hacer que la información fluyera de forma eficiente”, dice Saket Navlakha, profesor asistente en el Instituto. “El encontrar cómo un sistema desarrollado por la ingeniería de la información y uno que es el resultado de la evolución biológica llegan a una solución similar de un problema, es de verdad muy interesante”.

En el sistema de ingeniería de la información la solución se da a través del control del flujo de información, analizando la congestión de las vías de la Internet, buscando que las rutas no se encuentren ni atascadas ni sub-utilizadas. Para lograr esto, la Internet utiliza un algoritmo denominado “incremento aditivo, disminución multiplicativa” AIMD (por sus siglas en Inglés) donde un computador envía un paquete de datos y espera la confirmación por parte del receptor: si esta es recibida de forma rápida esto querrá decir que la red no esta sobrecargada y que, por lo tanto, los datos pueden ser transmitidos a través de ella a una velocidad mas alta. Con cada paquete de datos enviado con éxito de manera sucesiva, el computador sabe que es posible incrementar la velocidad de envío en una unidad, que es lo que constituye el “incremento aditivo”.

Por el contrario, si la confirmación se recibe con retraso o se pierde del todo, el computador entiende que la red esta sobrecargada y por lo tanto reduce la velocidad de envio en una buena medida, tanto como a la mitad, lo que constituye entonces la “disminución multiplicativa”. De esta manera y de forma gradual se encuentra la solución ideal y la congestión se evita por que los usuarios “quitan el pie del acelerador”, por decirlo de alguna manera, tan pronto observan un desaceleramiento en la red. A medida que los computadores ligados a la red utilizan esta estrategia el sistema como un todo se adapta de manera continua a las condiciones cambiantes, maximizando de esta manera la eficiencia del conjunto.

“Variaciones del algoritmo AIMD se usan en casi todas las redes de distribución de comunicación, dice Navlakha. “El descubrimiento de que el cerebro use un algoritmo similar, no parecer ser tan solo una coincidencia”.

Navlakha, quien desarrolla algoritmos para entender redes biológicas complejas, se preguntaba si el cerebro, con sus miles de millones de neuronas estaría manejando la información transmitida por ellas de una forma similar. Así, junto con Jonathan Suen, estudiante de post doctorado en la Universidad Duke, se puso en la tarea de construir un modelo matemático para analizar la actividad neuronal.

Dado que el AIMD es uno de otros tantos algoritmos de flujo de información que existen, el dúo decidió usar otros seis. Además, analizaron cuál modelo encajaba mejor con los datos fisiológicos de actividad neuronal de 20 estudios experimentales. En sus modelos, el AIMD resultó ser el más eficiente al momento de mantener el flujo de información moviéndose con facilidad, ajustando las tasas de tráfico cada vez que las vías estaban más congestionadas. Y aún más interesante, el AIMD también permitió explicar lo que sucedía cuando se estudiaban neuronas, de forma experimental.

Resulta que el equivalente neuronal del incremento aditivo, es lo que se conoce como potenciación de largo plazo. Ocurre cuando una neurona se enciende estando muy cerca de otra, lo que fortalece sus conexiones sinápticas y que vuelve más probable que la primera, en un futuro, pueda “empujar” a la segunda.

El equivalente neuronal de la disminución multiplicativa ocurre cuando el encendido de dos neuronas es revertido (el segundo antes que el primero), algo que debilita su conexión, haciendo que la primera tenga menos posibilidades de en un futuro ayudar en el encendido de la segunda. Esto se conoce como depresión de largo alcance. En la medida que las sinapsis se fortalecen o debilitan en toda la extensión de sus redes y de acuerdo a esta regla, todo el sistema se adapta y aprende.

“Aunque el cerebro y la inernet operan haciendo uso de diferentes mecanismos, ambos usan reglas locales simples que dan lugar a una estabilidad global”, dice Suen. “Me sorprendió mucho al inicio que redes neuronales, biológicas, utilicen los mismos algoritmos que sus contrapartes resultado de la ingeniería, aunque a medida que aprendíamos, los requerimientos de eficacia, potencia y simplicidad son comunes a los organismos vivos y las redes que hemos construido”.

El entender cómo el sistema trabaja bajo condiciones normales puede ayudar a los neurocientíficos a un mejor entendimiento de lo que sucede cuando existen disrupciones, esto es, cuando se dan los problemas en el aprendizaje.

Más información en el Blog de Josefina Cano: Cierta Ciencia

Referencia:
Saket Navlakha. Learning the Structural Vocabulary of a Network. Neural Computation, 2017

Colabore con CienciaEs.com - Ciencia para Escuchar
24.311.215 audios servidos, desde que empezamos a volar.

Botón de donación
Gracias a tu donación
podemos continuar.

Agradecemos la donación de:

Martin Nagy
“Recuerdo de Martin desde Eslovaquia”

Aniceto González Rivera
(Luxemburgo)

Ignacio Diaz Carmona
“Un granito de arena por el gran esfuerzo de divulgación por vuestra parte”
(Madrid)

Paul Balm
“Patrocinador en Patreon/CienciaEs”“

Antonio Lalaguna Lisa
“Hago esta donaciónen nombre de mi hijo Martín L”

Jorge Echevarria Telleria

Borja Trigueros Quintela
“¡Gracias por tanto!”
(Bilbao, Vizcaya)

Ismael
“Patrocinador en Patreon/CienciaEs”“

José Ignacio Becerra Carril

Fernando Vidal Agustina

Anónimo
“Muchas gracias, señoras y señores del equipo”
(México)

Gustavo Jerónimo Ochovo
“Patrocinador en Patreon/CienciaEs”“

Juan Cuerda Villanueva
“Colaboración con CienciaEs”

Arturo Martínez Martín
“Gracias por vuestro trabajo y dedicación “

José Tárraga Sánchez
(Cartagena, Murcia)

Leon Torres
“Esperamos que este mes de “vacaciones” de Ciencia Fresca les resulte productivo. Aquí estaremos, esperando nuevos programas cuando puedan retomar el ritmo. ¡Muy buena ciencia a todo el equipo!”
(Ciudad de Buenos Aires, Argentina)

José Luis Montalbán Recio
(Parcuellos del Jarama, Madrid)

Enrique Seoane Pesqueira
(A Coruña)

Esteban Ibañez Chimelis
(Barcelona)

Patricia Roldán Cifuentes
(Binghamton, NY, USA)

Alex Bikbaev
“Patrocinador en Patreon/CienciaEs”“

José Alberto García Gutiérrez
“Patrocinador en Patreon/CienciaEs”“

———- O ———-
App CienciaEs Android
App CienciaEs
App de cienciaes en apple store YouTube CienciaEs
———- O ———-



feed completo
Suscribase a nuestros programas






Locations of visitors to this page