
En Latinoamérica, las mujeres en la ciencia representan más del 40% de los investigadores; sin embargo, su porcentaje de participación en las empresas se ubica entre 18 y 28%.
El momento de cambiar esta realidad es ahora. El mundo de los datos masivos puede parecer complejo y con bajo impacto en nuestra vida cotidiana, pero para que cada vez estos conceptos te sean más fáciles de entender y los puedas utilizar en tu trabajo, el BID y Telefónica han desarrollado el MOOC Big Data Sin Misterios.
Para darte una muestra de lo que es el curso, hoy hablaremos de una herramienta muy específica de datos masivos: el aprendizaje profundo o “Deep learning”.
Deep learning en nuestras vidas
Sin darte cuenta, estas usando cada día herramientas digitales que usan Deep learning como los Asistentes virtuales Siri o Alexa. Estos asistentes se han generado gracias a la capacidad de procesamiento de altos volúmenes de información (o Big Data) vinculados al reconocimiento de voz.
Por otro lado, también encontramos herramientas como Netflix que permiten almacenar las actividades que realizamos dentro de la aplicación y de esta manera darnos recomendaciones útiles basadas en al análisis de datos.
¿Qué hay detrás de la “profundidad” de este aprendizaje?
Análisis estadístico
El aprendizaje profundo es una implementación automatizada del análisis estadístico, cuyo engranaje más importante son las redes neuronales.
Lo que las redes neuronales hacen es procesar repetidamente grandes volúmenes de datos. Algo que un estadista podría hacer a mano con horas y horas de trabajo, es realizado por un computador en milésimas de segundo; lo cual parece magia pero, en realidad, es la misma ciencia generada desde el siglo XVII.
Similitud al aprendizaje humano
Estas redes neuronales artificiales aprenden del mismo modo que las redes neuronales humanas reales, o sea, un algoritmo aprende con la misma metodología con la que un niño a pronunciar la palaba “perro”. Básicamente, en la medida que obtiene más información, aprende a diferenciar lo que es, afinar su precisión y tener menos margen de error.
Aplicación a tareas que mejoran vidas
Al poderse procesar datos a altísimos volúmenes y rapidez, el aprendizaje profundo ha logrado cambiar radicalmente el uso y análisis de imágenes, audio y video para inteligencia artificial, algo que en el pasado era difícil dado su complejidad y lo “pesado” (en términos de bytes).
Ahora, las imágenes pueden dividirse en pequeños segmentos y procesarse repetidamente hasta producir los resultados esperados.
Por ejemplo, el Hospital de Oncología María de Dios en Porto Alegre, Brasil, está utilizando tecnología de Watson-IBM para procesar grandes volúmenes de texto e imágenes en historias clínicas de pacientes con cáncer. De esta forma, pueden sugerir tratamientos personalizados y evaluar sus efectos secundarios basado en evidencias científicas mundiales.
¡Rompamos paradigmas! Sé parte de la era de las mujeres en Big Data. Inscríbete ya mismo en el curso “Big Data sin misterios” donde develarás qué otros cambios supone el uso de esta tecnología, cómo desarrollar un proyecto de Big Data y el uso de herramientas para visualización de datos.
[1] Fuente: BID, “Las brechas de género en ciencia, tecnología e innovación en América Latina y el Caribe” (2018) https://publications.iadb.org/en/publication/14120/las-brechas-de-genero-en-ciencia-tecnologia-e-innovacion-en-america-latina-y-el
[2] Más información disponible en: https://searchdatacenter.techtarget.com/es/definicion/Aprendizaje-profundo-deep-learning
[3] Más información disponible en: https://www.maededeus.com.br/PortalMedico/Noticia/143/hospital-do-cancer-mae-de-deus-e-o-1o-da-america-do-sul-a-utilizar-o-watson-for-oncology
Recommended Posts

EdX le da la bienvenida a LOGYCA
14 Feb 2019