Beneficios de usar ciencia de datos en las empresas

La ciencia de datos es el conjunto de técnicas y herramientas utilizadas para analizar y extraer conocimientos a partir de grandes conjuntos de datos. 

Algunos de los beneficios que puede proporcionar la ciencia de datos a las empresas son:

Mejora en la toma de decisiones: La ciencia de datos permite a las empresas tomar decisiones más informadas basadas en datos reales y no en suposiciones o intuiciones.

Identificación de oportunidades: Al analizar grandes cantidades de datos, las empresas pueden identificar nuevas oportunidades de negocio y áreas de crecimiento.

Mejora en la eficiencia operativa: La ciencia de datos puede ayudar a las empresas a identificar ineficiencias en sus procesos y tomar medidas para mejorarlos.

Identificación de patrones: La ciencia de datos puede ayudar a las empresas a identificar patrones en los datos que pueden ser útiles para predecir tendencias o comportamientos futuros.

Reducción de costos: La ciencia de datos puede ayudar a las empresas a reducir costos al identificar áreas en las que se pueden realizar mejoras y optimizaciones.

La ciencia de datos puede ser una herramienta valiosa para las empresas que buscan mejorar sus procesos, reducir costos y tomar decisiones más informadas basadas en datos reales.

Forma ideal de enviar un archivo a un servicio

El estado del arte en la Ingeniería de datos y los algoritmos estadísticos nos abren la posibilidad de automatizar ciertas tareas. Extraer información de un archivo es vital para realizar un modelo de inteligencia artificial o simplemente para concluir inferencias estadísticas a través de algoritmos. Los tipos de archivos más comunes para dichos análisis son los .csv .xlsx(Excel). Los archivos CSV sirven para manejar una gran cantidad de datos en formato tabla, sin que ello conlleve sobrecoste computacional alguno. Es tremendamente sencillo generar una tabla a partir de un documento de texto, con tan solo delimitar cada celda requerida con un punto y coma (en el caso de Europa) o con una coma (en países de habla inglesa). (Navegación, 2020).

Adicionalmente, para un cliente, es más fácil que entregue sus datos en formato Excel, ya que Excel es una de la herramienta más utilizada en el ámbito laboral, pues facilita muchos procesos administrativos. Y no solo eso, también permite realizar tareas en muy corto tiempo, automatizar tareas repetitivas y evitar errores que a veces pueden costar grandes sumas de dinero. (Ampliar, 2013). De ahí la importancia de procesar archivos, independientemente del formato.

Suponiendo que estamos creando un sitio web para un usuario final, y que un requisito funcional sea carga de archivos desde una interfaz gráfica, veremos un pequeño ejemplo sobre cómo lograr dicho requisito del lado del cliente (Frontend) y posteriormente enviarlo a un servicio.

¿Qué es FormData?

FormData es simplemente una estructura de datos que se puede utilizar para almacenar pares clave-valor. Tal como sugiere su nombre, está diseñado para contener datos de formularios, es decir, puede usarlo con JavaScript para crear un objeto que corresponda a un formulario HTML. Es principalmente útil cuando necesita enviar datos de formulario a puntos finales de la API RESTful, por ejemplo, para cargar uno o varios archivos mediante la interfaz XMLHttpRequest, la API fetch() o Axios. (Bouchefra, 2019). Al venir por defecto en Javascript, es posible crear este tipo de objeto en cualquier Framework de frontend:

1. Primero se debe crear la etiqueta input de HTML. Se debe indicar que el “type” es archivo “file” y el atributo “accept” es opcional, para indicar la extensión del archivo. Por último, asignarle un identificador “id”, para acceder al elemento más adelante de forma dinámica.

2. Después, vamos a acceder al elemento HTML y creamos una petición. La petición debe ser POST y para que funcione correctamente el tipo de contenido de la petición es multipart/form-data. Aunque el objeto FormData, configura el encabezado implícitamente, es importante tenerlo en cuenta, ya que el archivo se envía en formato binario y en ese mismo formato llega al servicio:

Se crea un 1 evento:

  • addEventListener de tipo ‘change’, para que el elemento input creado con anterioridad esté a la espera de que el usuario seleccione un archivo.  Con la propiedad target.files del event se accede a todos los archivos seleccionados por el usuario.

Se crea una función:

  • uploadFile que recibe el archivo como parámetro y se encargará de enviarlo al servicio.

Se crean 3 variables:

  • API_ENDPOINT. Hace referencia al punto funcional, URL del servicio que recibe el archivo
  • request. Permite realizar peticiones HTTP cliente-servidor, este tipo de objeto puede cambiar dependiendo del Framework. Por ejemplo, en Angular la clase utilizada para peticiones HTTPes HttpClient.
  • formData. Hace referencia al objeto FormData, implementado también en cualquier Framework que se desee utilizar, que esté basado en JavaScript/TypeScript.

Se define la petición con el método open de request. Con el método onreadystatechange se define qué hacer con la respuesta del servicio. Con append, se adiciona el archivo al FormData, el cual recibe dos parámetros, la llave y el valor. Además, se puede adicionar más información tipo llave-valor en el FormData si así se desea.

Finalmente, send ejecuta la petición.

Y así, con pocas líneas de código, pudimos enviar un archivo por la web para ser procesado por un servicio de inteligencia artificial o algoritmos estadísticos.

Por: Nicolás Cardona


Referencias

  1. Navegación. (2020, June 29). GEEKNETIC. https://www.geeknetic.es/Archivo-CSV/que-es-y-para-que-sirve
  2. Ampliar. (2013). Excelparatodos.com. https://excelparatodos.com/que-es-excel/#:~:text=Excel%20es%20una%20de%20las%20herramienta%20m%C3%A1s%20utilizada%20en%20el,costar%20grandes%20sumas%20de%20dinero.

‌ Bouchefra, A. (2019, July 21). How to upload single or multiple files the easy way with FormData. FreeCodeCamp.org; freeCodeCamp.org. https://www.freecodecamp.org/news/formdata-explained/

Calidad para exportar

Durante el año 2022 y gracias al programa denominado “Calidad para Exportar” que desarrolló Colombia Productiva a través de la Convocatoria 685; SIGMA INGENIERÍA desarrolló y fortaleció sus procesos organizacionales a partir de la implementación de las buenas prácticas definidas por las normas internacionales que son referentes de calidad y modelo para las empresas de la industria TI. El proyecto Colombia Productiva tuvo como objetivo “entregar recursos de cofinanciación no reembolsables para apoyar el proceso de certificación de calidad de productos y el proceso de acreditación de laboratorios para exportaciones”.

La primera etapa se desplegó mediante la mejora de los procesos de Gerencia de Proyectos y Desarrollo de Software, los cuales fueron trabajados de acuerdo a los requisitos de la ISO/IEC 29110-4-1. A partir de este modelo se logró la aplicación de los procesos mejorados en el desarrollo de un producto en cooperación con BIOS – IDEAM de la plataforma web de visualización VIDHAG – VISOR DE DATOS, PRONÓSTICOS Y ALERTAS HIDROMETEOROLÓGICAS COMO APOYO A LA GESTIÓN DEL RIESGO. Obtuvimos la certificación en junio de 2022, la cual estará vigente hasta junio de 2025.

La segunda etapa consideró el desarrollo de un Sistema de Gestión del Servicio – SGS, basado en la norma internacional ISO/IEC 20000-1:2018. A partir de la misma se desplegó una mejora en los procesos de entrega y prestación del servicio relacionados con el mantenimiento de sistemas de información, la gestión de la infraestructura de TI, la gestión de nuevos componentes, los servicios profesionales, la gestión de equipamiento y el servicio de analítica de datos, que corresponden a los productos de Geoaseo, Geoambiental, Geolumina, Geostrategy y Giotech. El pasado 15 de febrero cerramos el proceso de evaluación externa a través de la auditoría realizada por el organismo mexicano de normalización NYCE, obteniendo viabilidad en la madurez del sistema y aprobación para el otorgamiento del certificado en el estándar de referencia mencionado, certificado que oficialmente se encuentra en proceso de generación y entrega a la organización.

Colombia Productiva, a través de sus convocatorias, nos ha permitido apalancar la mejora de nuestros procesos y su validación a través de modelos de referencia de carácter internacional, estos nos permiten identificar que estamos haciendo bien y aquello en lo que podemos hacerlo mejor para ser competitivos en el mercado.

Finalizada la Convocatoria 685 en marzo de 2023, esperamos iniciar en el primer semestre de 2023, el proyecto presentado a la Convocatoria 774, la cual nos reta a contar con un sistema integrado de gestión de calidad que podamos validar a través de la norma ISO 9001:2015. Gracias a Colombia Productiva por aportar a la mejora continua de las organizaciones y prepararnos para conquistar el mercado internacional.

¿Sabes cómo utilizar NLP en tu compañía?

¿Qué es NLP?

NLP o Natural Language Processing (procesamiento del lenguaje natural) se refiere a una rama de
la inteligencia artificial que se encarga de brindar a los ordenadores la capacidad de entender
texto de la misma forma que los seres humanos.

¿Cómo funciona NLP?

NLP combina la lingüística computacional con modelos estadísticos y de aprendizaje máquina,
brindando la capacidad a las computadoras de interpretar, manipular y comprender el lenguaje
humano.

  • Lingüística computacional
    La lingüística computacional es la ciencia de entender y crear modelos de lenguaje humano con computadoras y herramientas de software. Los investigadores utilizan métodos lingüísticos computacionales, como el análisis sintáctico y semántico, para crear marcos que ayuden a las máquinas a entender el lenguaje humano conversacional.

  • Machine learning
    El Machine Learning es una tecnología que entrena a una computadora con datos de muestra para mejorar su eficiencia. El lenguaje humano tiene varias características, como sarcasmo, metáforas, variaciones en la estructura de las oraciones, además de excepciones gramaticales y de uso que los humanos tardan años en aprender. Los programadores utilizan métodos de Machine Learning para enseñar a las aplicaciones de NLP a reconocer y comprender con precisión estas características desde el principio.

  • Aprendizaje profundo
    El aprendizaje profundo es un campo específico del Machine Learning que enseña a las computadoras a aprender y pensar como humanos. Se trata de una red neuronal que consta de nodos de procesamiento de datos que se asemejan a las operaciones del cerebro humano. Con el aprendizaje profundo, las computadoras reconocen, clasifican y correlacionan patrones complejos en los datos de entrada.

NLP en la industria

Las empresas actualmente utilizan NLP para varias tareas automatizadas, como:
• Procesar, analizar y archivar documentos grandes.
• Analizar los comentarios de los clientes o las grabaciones de centros de atención telefónica.
• Ejecutar chatbots para ofrecer un servicio al cliente automatizado.
• Responder preguntas de quién, qué, cuándo y dónde.
• Clasificar y extraer texto

¿Cómo puede ayudar Geostrategy en tareas de NLP?

El procesamiento del lenguaje natural es el proceso de utilizar ordenadores para analizar, comprender y extraer significado del lenguaje humano de forma similar a como lo entienden los humanos. El procesamiento del lenguaje natural tiene muchas aplicaciones en motores de búsqueda y recuperación de información. Desde Geostrategy somos capaces de generar buscadores inteligentes a la medida en base a NLP, capaz de procesar, analizar y archivar grandes documentos.

Problema de ruteo y optimización en operaciones de recolección de residuos sólidos

La rápida urbanización, el crecimiento demográfico y el desarrollo económico han dado lugar a una mayor generación de desechos en países de todo el mundo. Estadísticas del Banco Mundial indican que en 2016 se generaron 2010 millones de toneladas de residuos, que se proyecta que aumenten a 3.40 billones de toneladas para el 2050. De acuerdo con la información disponible en la Superintendencia de Servicios Públicos Domiciliarios, en el año 2018 en Colombia se dispusieron 30.973 toneladas/día de residuos sólidos, lo que equivale a 929.190 toneladas al mes, donde un aspecto que debe considerarse dentro de la gestión de los desechos es que está asociado al bajo aprovechamiento de los residuos. Según el Departamento Nacional de Planeación & Dirección de Desarrollo Urbano, en el país el 83% de los residuos sólidos que se generan son finalmente depositados en rellenos sanitarios y sólo el 17% son aprovechados para incorporarlos nuevamente en el ciclo productivo a través de su comercialización, desaprovechando su potencial, generando la necesidad de tener óptimos procesos de recolección y disposición de estos.

El problema básico del sistema de gestión de residuos es la organización del trabajo, que debe ser eficaz con el máximo beneficio y el mínimo gasto económico. Esto significa que el factor clave para el funcionamiento eficiente de este sistema son todos los tipos de costos. En la recogida de residuos, los principales factores de costes operativos son el tiempo de trabajo del conductor y el tiempo de servicio del vehículo de recogida de residuos, así como el recorrido que debe realizar el vehículo. 

Como es evidente, el recorrido es uno de los factores más importantes que afecta los costos operativos de una empresa de limpieza municipal, por tanto, la elección de una ruta óptima es uno de los retos más significativos. Generalmente, las empresas de recolección de basura tienen que administrar rutas que varían de cientos a miles en la operación diaria. Tomando como ejemplo la empresa Waste Management en América del Norte, gestionan 19.600 rutas diarias en promedio y tienen 20 millones de clientes en las áreas residenciales y 2 millones en las áreas comerciales. En total, Waste Management posee 26000 camiones de basura y los costos operativos relacionados con cada camión de basura rondan los $120000 USD. Por lo tanto, deben hacer que cada operación de ruta sea eficiente y rentable. En este caso, la cantidad de vehículos se convierte en el componente clave que debe considerar la optimización de rutas, ya que los costos de operación representan los costos fijos de los vehículos, los costos variables de los vehículos y los gastos de mano de obra. De lo anterior, es evidente que minimizar el número de vehículos se considera como un objetivo del problema, específicamente el problema de enrutamiento de vehículos (VRP) que se puede describir como el problema de crear un conjunto de rutas óptimas desde uno o varios depósitos a múltiples clientes, sujeto a un conjunto de restricciones. El objetivo es operar la gestión del transporte en un 100%, al mismo tiempo que minimiza el costo de las rutas y la cantidad de vehículos.

Recientemente, las técnicas de Inteligencia Artificial han ganado impulso al ofrecer enfoques computacionales alternativos para resolver problemas de gestión de residuos sólidos urbanos. La IA ha sido eficaz para abordar problemas mal definidos, aprender de la experiencia y manejar la incertidumbre y los datos incompletos.  La tecnología de IA se ocupa del diseño de sistemas y programas informáticos que son capaces de imitar rasgos humanos como la resolución de problemas, el aprendizaje, la percepción, la comprensión, el razonamiento y la conciencia del entorno. Los modelos de IA como la red neuronal artificial (ANN), el sistema experto, el algoritmo genético (GA) y la lógica difusa (FL) tienen la capacidad de resolver problemas mal definidos, configurar mapas complejos y predecir resultado. Cada modelo de IA o rama de la IA tiene una función específica; por ejemplo, los modelos ANN pueden entrenar datos para clasificación y predicción. Además, las ANN se pueden utilizar para manejar Big Data en geografía urbana y realizar análisis geográficos. Estos sistemas tienen una sintaxis lingüística simple que es competente en la gestión de operaciones complejas y atributos cualitativos. Por otro lado, los algoritmos evolutivos, como GA, adoptan el concepto de selección natural para obtener resultados óptimos mediante la selección de los datos que mejor se ajustan a las condiciones imprevistas. 

Los resultados de las tecnologías mencionadas han sido totalmente alentadores, en efecto, un estudio sugiere que tomar la ruta optimizada puede reducir los costos de combustible hasta en un 30%, con las herramientas adecuadas de optimización y mejorar su capacidad del proceso hasta en un 100 % sin aumentar la flota. Todo a partir de algoritmos de optimización de rutas. Otros estudios un poco más enfocados en investigación, sugieren una total reducción de distancia recorrida entre el 18,98% y 30,81% (Ghiani, 2014). Y, por otro lado, a partir de algoritmos genéticos se logra minimizar distancia total en un 66%, mientras que el tiempo de recolección se redujo de 7 horas por camión-viaje a 2,3 horas (Assaf R., Saleh Y., 2017).

Lo que evidencia que las operaciones gestionadas con tecnologías emergentes pueden generar excelentes resultados operacionales, ambientales, sociales y empresariales.

¿Sabes cómo optimizar tus rutas?

Realizado por: Alejandra María Restrepo Franco

La importancia de llevar a producción la ciencia de datos

Antes de llevar un producto de ciencia de datos a producción, éste debe pasar por diferentes etapas, desde análisis del sistema de información hasta la implantación y el despliegue. Sin embargo, no es una tarea fácil, pues requiere diferentes marcos de trabajo, metodologías y buenas prácticas que ayuden a desarrollar un producto de buena calidad. Cada proceso debe ser supervisado por diferentes áreas expertas que verifiquen y validen que efectivamente se están cumpliendo los estándares de la empresa u organización.

En un contexto más estratégico generalmente existen tres tipos de supervisores en un proyecto de ciencia de datos. Primero está el gerente de negocio, trabaja en conjunto con el equipo experto en ciencia de datos para identificar el problema, definir la estrategia de análisis y el modelo de negocio. Después están los gerentes de TI, los cuales se hacen cargo de la infraestructura y la arquitectura que a largo plazo dará soporte a las operaciones de ciencia de datos. Y finalmente nos encontramos con los gerentes de ciencia de datos, que deben supervisar todo el trabajo que realiza el equipo de ciencia de datos (Oracle, 2014). Sin embargo, el científico de datos es el actor más importante en el proceso.

En los proyectos de ciencia de datos lo ideal es que el científico de datos también tenga conocimientos en desarrollo de software para poder llevar el producto a producción. De esta manera, lo hace un perfil bastante competente en el mercado. Por un lado, entiende los modelos de inteligencia artificial y por otro lado tiene las habilidades necesarias para transformar ese modelo en un producto que genere valor a la empresa. Esto no siempre sucede, ya que las empresas tienen diferentes áreas para segmentar las responsabilidades de los profesionales.

Como se ha mencionado anteriormente, existen varios puntos fuertes que se deben tener en cuenta para resaltar la importancia de llevar a producción la ciencia de datos. Todo se resume en que las compañías necesitan datos. Los necesitan para sus modelos de decisión y también para crear una mejor experiencia al cliente. De la compañía depende en qué área desea enfocarse para aplicar las decisiones basadas en los datos. Dichas áreas son:

Mejorar el marketing

Las compañías están utilizando los datos para analizar sus estrategias de marketing y crear mejores anuncios. Muchas veces, las empresas gastan una cantidad astronómica en el marketing de sus productos. En ocasiones, esto podría no dar los resultados esperados. 

Adquisición de clientes

Los científicos de datos ayudan a la compañía a adquirir clientes analizando sus necesidades. Esto permite a las empresas adaptar mejor los productos a los requisitos de sus clientes potenciales. 

Los datos son la clave para que las empresas entiendan a sus clientes. Por lo tanto, el objetivo de un científico de datos aquí es permitir a las empresas reconocer a los clientes y ayudarles a satisfacer sus necesidades.

Innovación

Las compañías crean mejores innovaciones con una gran cantidad de datos. Los científicos de datos ayudan a la innovación de productos analizando y creando ideas dentro de los diseños convencionales. 

Analizan las opiniones y reseñas de los clientes y ayudan a las empresas a elaborar productos que se ajusten perfectamente a las opiniones y los comentarios. Utilizando los datos de las opiniones de los clientes, las compañías toman decisiones y toman acciones adecuadas en la dirección correcta.

Ciencia de datos para enriquecer la vida

Los datos de los clientes son fundamentales para mejorar vidas. Las industrias sanitarias utilizan los datos disponibles para ayudar a sus clientes en su vida cotidiana. Los científicos de datos en este tipo de industrias tienen el propósito de analizar los datos personales, el historial médico y crear productos que aborden los problemas a los que se enfrentan los clientes. (Qué Es La Ciencia de Datos Y Cuál Es Su Objetivo, 2021).

Realizado por: Nicolás Cardona Ramírez

Referencias

  1. ¿Qué es la ciencia de datos? (2014). Oracle.com. https://www.oracle.com/co/what-is-data-science/
  2. Qué es la ciencia de datos y cuál es su objetivo. (2021, February). Tudashboard.com. https://tudashboard.com/que-es-la-ciencia-de-datos/

El valor de los datos en los hospitales

El desarrollo tecnológico de los últimos años, ha llevado a la generación y recolección de miles de datos de diferentes sectores, entre ellos el sector de la salud.  Actualmente, se puede identificar como en los hospitales se almacenan grandes cantidades de datos de diversos tipos, los cuales se pueden clasificar en:

  • Datos estructurados: los cuales tienen una organización consistente; una tabla con filas y columnas.
  • Datos no estructurados, que incluyen:
    • Texto clínico.
    • Imágenes: grandes conjuntos bidimensionales de valores de intensidad, que miden el grado en que se transmite y absorbe algún tipo de energía física en los tejidos. 
    • Señales: mediciones provenientes de un sensor, generalmente a intervalos de tiempo espaciados regularmente.
  • Datos de observación: datos recopilados para otros fines y que se recopilan como subproducto de la prestación de atención. 

Por otra parte, estos datos pueden venir de diferentes fuentes como lo son:

• Expedientes médicos de pacientes: los cuales están almacenados en sistemas informáticos como expedientes médicos electrónicos (EMR) o, a veces, también llamados expediente médico electrónico (EHR).

• Datos de facturación: nóminas, información fiscal y contable. 

• Registros farmacéuticos: prescripciones y todo lo relacionado a estas, como fechas y pagos. 

La importancia de estos datos empieza cuando las empresas y entidades de la industria se dan cuenta de los avances que proporciona tenerlos, para tomar decisiones comerciales por varias razones [1]:

  • Aumento del conocimiento de sus recursos y capacidades: obteniendo datos sobre los productos y servicios que actualmente brindan estos centros de atención médica, así como fuentes de datos externas, como datos demográficos o registros médicos electrónicos.
  • Gestión y toma de decisiones basadas en datos: tener en cuenta que los datos obtenidos pueden mejorar la toma de decisiones, por ejemplo, para aumentar la eficacia de las ventas, el marketing, la gestión de recursos o la atención al paciente.
  • Predictivo: estos datos no solo ayudan a mejorar las operaciones diarias y la atención al paciente, sino que también permiten el modelado predictivo. Además de usar información histórica o actual, se puede usar ambos conjuntos de datos para rastrear tendencias y hacer predicciones. Esto permite tomar medidas preventivas y monitorear los resultados.

Se ha visto que estos datos pueden contribuir a la buena atención y al correcto funcionamiento tanto desde un punto de vista médico como organizacional, cuando se analizan de manera correcta. Se puede tener un impacto positivo en varios frentes [1]: 

  • Eficiencia y costo de los trámites administrativos: identificar qué procesos no están dando los resultados esperados y dónde se pueden mejorar.
  • Coordinación entre departamentos y recursos: puede ayudar a que estos sistemas sean más abiertos, fluidos y comunicativos garantizando un intercambio rápido y preciso de registros médicos, datos de pacientes u otra información. 
  • Calidad de vida del paciente: el análisis de datos puede proporcionar datos no solo a nivel global del centro, sino también a nivel del paciente. Con estos datos, se pueden recomendar soluciones específicas para cada paciente en función de su historial médico y datos biométricos.
  • Análisis predictivo: al conocer los datos recopilados a lo largo del tiempo, los centros médicos ahora pueden realizar mejoras antes de una posible crisis.
  • La investigación de determinados KPI clave, como el tiempo de ingreso hospitalario, el número de consultas por departamento o la satisfacción del paciente, proporcionará resultados que ayudarán a mejorar la gestión sanitaria.

Desde el punto de vista del machine learning, estas grandes cantidades de datos tienen numerosos usos, que en muchos casos implican proyectos personalizados según la situación de cada hospital pero que de alguna forma pueden resumirse en funciones como [2]: 

  • Proporcionar disponibilidad de camas de quirófano, salas cerradas y admisiones generales. 
  • Análisis predictivo de variables estacionales (días festivos y otros eventos) para cambios médicos durante todo el año. 
  • Previsión de cancelación de cambios. 
  • Optimizar el staff en tiempo real mediante encuestas de empleados y paneles de segmentación (vacaciones, separación, horas extras).

El análisis de datos es una disciplina valiosa para cualquier industria. En el sector de la salud, su implantación tiene evidentes ventajas en su gestión y mejora, y en definitiva repercute positivamente en la calidad de vida de los pacientes. La visión de esta tecnología será predecir eventos a partir de estos datos, abriendo nuevas oportunidades más eficientes y accesibles para mejorar la gestión de la atención médica y la salud humana a pasos agigantados. Sin embargo, aún queda mucho camino por recorrer, puesto que los datos provienen de diferentes fuentes y la información no está correlacionada entre sí en la mayoría de los hospitales, se genera desconfianza sobre la calidad de los datos para investigación. Es por esto, que los siguientes pasos en los hospitales, deben estar orientados a la homogeneización de datos, integración y consolidación; y procesamiento e interpretación de estos.

Por: Isabel Olaya López 

Visión Artificial en la medicina

La inteligencia artificial es una nueva tecnología que cada día toma más fuerza, e incluso forma parte de nuestras vidas cotidianas, desde nuestros teléfonos hasta las grandes empresas de automatización, siempre ayudando a lograr tareas de forma automatizada y apoyar en diferentes labores al ser humano. Dado el gran impacto y beneficio que esta ha originado, sectores más especializados como la salud se han visto en la necesidad de incluir este tipo de tecnologías para asistir a los diferentes profesionales en labores como la toma de decisiones y automatizar un poco más los procesos hospitalarios. Es importante resaltar que este tipo de tecnologías están hechas para asistir, más no para reemplazar.

Una de las formas más comunes de apoyar a los diferentes profesionales de la salud es mediante la visión artificial o visión por computador en las imágenes médicas. Pero antes de entrar a detalle, es necesario explicar ¿qué es visión artificial?. Se puede definir la visión artificial como el conjunto de técnicas de inteligencia artificial que permite a un computador emular el comportamiento de la visión humana, y así poder identificar y/o clasificar objetos en imágenes e incluso videos. La visión artificial ha demostrado ser muy confiable en diversas industrias. Un claro ejemplo de esto es la industria automotriz, dónde los vehículos autónomos poseen sistemas de visión artificial para identificar objetos con gran precisión, y así proveer al conductor seguridad y tranquilidad a la hora de dejar al carro conducir solo.

En respuesta al gran impacto que este tipo de sistemas de visión artificial está presentando en la industria, el sector de la salud ha buscado dónde aplicar este tipo de sistemas, siendo las imágenes médicas un sector con un amplio margen de aplicación y mejora. Este tipo de imágenes suele ser bastante complejo y solo puede ser analizado por profesionales previamente capacitados, sin embargo, diferentes factores como el cansancio puede afectar la resolución del profesional frente a la imagen, y es dónde la visión artificial entra a ayudar. Las imágenes médicas se pueden clasificar en invasivas y no invasivas, siendo estas últimas las que presentan un mayor beneficio en cuanto a tiempo y complejidad del procedimiento, sin embargo son también las más complicadas a la hora de analizar. Algunos ejemplos de imágenes médicas son:

  • Imagen de Resonancia Magnética (MRI).
  • Tomografía Computarizada (CT).
  • Endoscopias.
  • Rayos X.

En este punto, te preguntarás, ¿Cómo ayuda la visión artificial en este tipo de imágenes?. La visión artificial es usada para encontrar patrones que tal vez el ojo humano no tenga el alcance para identificar y así detectar posibles problemas o anormalidades en las imágenes. Un claro ejemplo de esto es la detección temprana de enfermedades como tumores, cáncer, pneumonia, retinopatía diabética, alzheimer, fracturas, e incluso COVID-19. Este apoyo en la detección temprana permite a los profesionales diseñar un tratamiento antes que el estado de los pacientes empeore.

Con la aplicación de este tipo de tecnologías no solo se asiste al profesional de la salud para reducir los posibles errores derivados de factores externos como el cansancio, también mejora la productividad de los profesionales, ya que el tiempo para tomar una decisión se ve reducido, se pueden enfocar en las zonas que los modelos de visión por computador recomiendan y tomar una decisión más rápida y confiable. Del mismo modo, tanto como la tecnología médica avanza, nuevas imágenes y enfermedades surgen, por esto es necesario que los modelos de visión artificial sean constantemente entrenados. Finalmente, el campo de mejora de la visión artificial es bastante amplio, modelos basados en redes neuronales convolucionales y transformers, toman cada día más fuerza y muestran aplicaciones como generación artificial de imágenes, simuladores, y asistencia en tiempo real, que pueden ser aplicados de forma innovadora al campo de la medicina, teniendo en cuenta que aún hay enfermedades que incluso para el ojo humano son imposibles de identificar. 

Por Jesús Alejandro Álzate Grisales

Deep Learning: aplicaciones reales en la Industria

Machine Learning es una de las tecnologías emergentes y una de las palabras más usadas en la industria a la hora de automatizar procesos. A pesar de la amplia información que existe en la red acerca de esta, todavía hay muchas dudas sobre la aplicación real de esta tecnología. Por otro lado, el Deep Learning, una rama del Machine Learning, que es capaz de aprender de forma automática sin necesidad de un supervisor humano, surgió en 1978, la aplicación y popularidad de esta tecnología en la academia e industria se dio aproximadamente en el 2012, y ha surgido gracias al avance de las tecnologías en las unidades de GPU y TPU. La diferencia entre el Machine Learning y el Deep Learning es que el último es capaz de aprender de forma automática sin necesidad de un supervisor experto que intervenga en el proceso. El Deep Learning es capaz de analizar millones de datos no estructurados con alta velocidad y fiabilidad, presentando grandes ventajas en la industria.

El Deep Learning es un recurso útil en casi toda la cadena de suministro. Por tanto, la aplicación de estas herramientas es esencial en la Industria. Los principales beneficios que obtienen las empresas que lo implementan son:

  1. La planificación de alto nivel es una de las características más valiosas del Deep Learning y su poder predictivo. Gracias a estas soluciones, las empresas tendrán una visión más clara de lo que está por venir y podrán actuar en consecuencia.
  1. Predecir los picos y valles de la demanda, el cual permite a las industrias comprender qué tan preparadas están para tales situaciones.
  1. Las empresas obtendrán un conocimiento detallado de las preferencias de sus clientes para poder ofrecer productos con características que realmente se adapten a ellos. Haciendo una amplia investigación sobre la información sobre sus gustos y comportamiento.
  1. Facilitan la automatización de procesos, lo que también facilita que los recursos humanos se utilicen para realizar tareas de creación de valor en lugar de centrarse en operaciones repetitivas.
  1.  Mejoran el funcionamiento de los equipos, ya que pueden predecir futuras fallas y así evitar paradas no planificadas en la producción. Se producirán productos de mayor calidad y los clientes estarán más satisfechos con menos desperdicios y devoluciones.
  1. Ahorre costos de logística.

Son muchas las aplicaciones del Deep Learning en la industria. Mencionaremos unos cuantos ejemplos de aplicaciones.
El sector automotriz es un claro ejemplo del uso del Deep Learning. Algunas de las aplicaciones son:

  • Detectar fatiga del conductor con el objetivo de evitar accidentes, y posibles problemas viales o peligros en la carretera.
  • Identificar la voz del conductor, de tal manera que pueda generar ordenes sobre el automóvil sin necesidad de quitar la vista de la carretera. 
  • Mejorar la seguridad en el volante con muchos datos vinculados a la conducción que el sistema analiza de forma instantánea. 
  • Todo lo relacionado con la conducción autónoma, aunque no ha salido al mercado en este momento se está trabajando en la conducción autónoma con técnicas de Deep Learning.

El sector financiero es otro sector empresarial que se ha visto beneficiado por el auge del Deep Learning. Aunque el sector financiero por sus características ha sido muy conservador en este tipo de tecnologías, en la actualidad se han implementado estrategias de Deep Learning como:

  • Autoatención segura de las Apps móviles, para aumentar la seguridad de los datos del cliente que entren a su cuenta personal a través de la app móvil.
  • Sistema de análisis automático para conceder créditos: El Deep Learning por sus características de analizar datos no estructurados a gran velocidad puede clarificar la concesión de un crédito de riesgo al momento.

El sector agrícola también adoptó las tecnologías del Deep Learning con el surgimiento de la agricultura de precisión y la oportunidad de automatizar procesos agrícolas, algunas de las aplicaciones son:

  • Analizar y monitorizar los datos de todas las plantaciones y cultivos de la planta, así como de su crecimiento.
  • Con los datos recogidos, puede analizar el estado de salud en el que se encuentran las plantaciones y prevenir plagas endémicas que puedan acabar con la cosecha.
  • Controla la cantidad de agua o de fertilizante que la tierra necesita para asegurar que las plantaciones crezcan a un ritmo adecuado.

El sector energético aplica el Deep Learning en la gestión energética relacionado con:

  • Mejoras en la gestión y optimización de la red.
  • Optimización del precio 
  • Predicción de crecimiento por zonas. 
  • Detección de picos de consumo y demanda 
  • Comportamiento de ciertos clientes o ciudades.

Por: Mario Alejandro Bravo Ortiz

La Importancia de la Optimización de los Procesos articulados con la Ciencia de Datos

“Optimizar Procesos, el Primer Paso Organizacional para una Evolución Estratégica”

El modo más formal de comunicar o manipular hechos o ideas de algún proceso es mediante una representación numérica, o como mejor son denominados: Datos.

El tratamiento de los datos, las mediciones y la calidad son de los pilares fundamentales en una industria globalizada y el principal punto de partida en la Cuarta Revolución Industrial. Dado que la calidad es un concepto evolutivo pero subjetivo, es necesario integrar nuevas herramientas y metodologías que flexibilicen la inserción en la industria, abriendo así la visión general de optimizar procesos articulados con la ciencia de datos.

La optimización es una de las principales herramientas de la mejora continua de procesos y/o servicios. Esta herramienta se encarga de adaptar los procesos para optimizar sus parámetros, sin inferir en sus límites. Por lo general, busca minimizar costos y maximizar el rendimiento, efectividad y la eficiencia; reduciendo así los procesos críticos y reprocesamientos, fallas y defectos en las disposiciones finales, velando por incrementar la calidad organizacional. A su vez, la ciencia de datos combina diversos campos, como la Inteligencia Artificial (IA), la estadística, métodos científicos y el análisis de datos para extraer el valor de estos.

Optimizar la calidad de procesos organizacionales es el inicio de la transformación digital de las empresas. Simplificar y automatizar tareas a partir de las nuevas tecnologías y/o metodologías buscando conseguir una mayor eficiencia organizacional es de los principales objetivos de la Optimización de Procesos. Medir juega un papel global en la optimización mediante la articulación de la ciencia de datos; dado que, lo que no se puede medir, no existe y por ende no se puede gestionar.

Los datos son poder dentro y fuera de las empresas. Al adoptar una optimización de procesos, todos los datos que maneja la empresa se vuelven más accesibles en pro de ayudar a los decisores en la toma de decisiones de la organización; mejorando así, la competitividad, la calidad y la innovación.

Analizar los procesos posibilita que las empresas puedan evaluar el desempeño organizacional y definir acciones estratégicas en pro de la innovación industrial a partir de los datos relacionados a los procesos.

Por lo cual, es necesario integrar nuevas técnicas y herramientas que actualicen y añadan valor agregado al análisis tradicional de variables. Buscando incorporar metodologías de calidad, tecnologías y métodos como el análisis big data para procesar y analizar los datos que recolectan las organizaciones, detectando así, patrones y tendencias que optimice la toma de decisiones estratégicas.

De este modo, se puede ultimar resaltando que actualmente la organización que no optimice sus procesos tiende a estar como los dinosaurios; en extinción.

Jean Paul Morán-Zabala, Estudiante de Ingeniería de la Calidad – ITM

Pasante Delfín Sigma Ingeniería