Esta introducción al aprendizaje automático proporciona una visión general de su historia, fundamentos importantes, aplicaciones y preocupaciones en las empresas hoy en día.
¿Qué es el aprendizaje automático?
El aprendizaje automático es una rama de la inteligencia artificial (IA) y la informática que se enfoca en el uso de datos y algoritmos para imitar la forma en que los humanos aprenden, mejorando gradualmente su precisión.
IBM tiene una rica historia con el aprendizaje automático. Uno de sus propios investigadores, Arthur Samuel, es reconocido por haber acuñado el término «aprendizaje automático» con su investigación alrededor del juego de damas. En 1962, Robert Nealey, el autoproclamado maestro de las damas, jugó contra una computadora IBM 7094 y perdió. En comparación con lo que se puede hacer hoy en día, este logro parece trivial, pero se considera un hito importante en el campo de la inteligencia artificial.
En las últimas décadas, los avances tecnológicos en el almacenamiento y la capacidad de procesamiento han permitido algunos productos innovadores basados en el aprendizaje automático, como el motor de recomendación de Netflix y los coches autónomos.
El aprendizaje automático es un componente importante del creciente campo de la ciencia de datos. A través del uso de métodos estadísticos, los algoritmos se entrenan para hacer clasificaciones o predicciones, y para descubrir ideas clave en proyectos de minería de datos. Estas ideas impulsan la toma de decisiones dentro de aplicaciones y empresas, idealmente impactando las métricas clave de crecimiento. A medida que los grandes datos continúan expandiéndose y creciendo, aumentará la demanda del mercado para científicos de datos. Serán requeridos para ayudar a identificar las preguntas de negocio más relevantes y los datos para responderlas.
Los algoritmos de aprendizaje automático se crean típicamente utilizando marcos que aceleran el desarrollo de soluciones, como TensorFlow y PyTorch.
Aprendiendo a diferenciar: Machine Learning vs. Deep Learning vs. Redes Neuronales
Dado que Deep Learning y Machine Learning se utilizan a menudo indistintamente, vale la pena señalar las diferencias entre ambos. El Machine Learning, el Deep Learning y las Redes Neuronales son todos subcampos de la Inteligencia Artificial. Sin embargo, las Redes Neuronales son en realidad un subcampo del Machine Learning, mientras que el Deep Learning es un subcampo de las Redes Neuronales.
La forma en que difieren el Deep Learning y el Machine Learning es en cómo aprende cada algoritmo. El «Deep» Machine Learning puede utilizar conjuntos de datos etiquetados, también conocidos como aprendizaje supervisado, para informar a su algoritmo, pero no necesariamente requiere un conjunto de datos etiquetado. El Deep Learning puede ingerir datos no estructurados en su forma cruda (por ejemplo, texto o imágenes), y puede determinar automáticamente el conjunto de características que distinguen diferentes categorías de datos entre sí. Esto elimina parte de la intervención humana necesaria y permite el uso de conjuntos de datos más grandes. Se puede pensar en el Deep Learning como «Machine Learning escalable», como señala Lex Fridman en esta conferencia del MIT.
El Machine Learning clásico, o «no-deep», depende más de la intervención humana para aprender. Los expertos humanos determinan el conjunto de características para comprender las diferencias entre las entradas de datos, generalmente requiriendo datos más estructurados para aprender.
Las Redes Neuronales, o Redes Neuronales Artificiales (RNA), están compuestas por capas de nodos, que contienen una capa de entrada, una o más capas ocultas y una capa de salida. Cada nodo, o neurona artificial, se conecta a otro y tiene un peso y un umbral asociados. Si la salida de cualquier nodo individual está por encima del valor umbral especificado, ese nodo se activa, enviando datos a la siguiente capa de la red. De lo contrario, ese nodo no transmite datos a la siguiente capa de la red. El «deep» en Deep Learning se refiere simplemente al número de capas en una red neuronal. Un modelo de Red Neuronal que consta de más de tres capas, que incluiría la entrada y la salida, se puede considerar un algoritmo de Deep Learning o una Red Neuronal Profunda. Una Red Neuronal que solo tiene tres capas es solo una Red Neuronal básica.
El Deep Learning y las Redes Neuronales se atribuyen con el aceleramiento del progreso en áreas como la visión por computadora, el procesamiento del lenguaje natural y el reconocimiento del habla.
Cómo funciona el aprendizaje automático
- Un proceso de toma de decisiones: En general, los algoritmos de aprendizaje automático se utilizan para hacer predicciones o clasificaciones. Basándose en algún conjunto de datos de entrada, que puede estar etiquetado o no, su algoritmo producirá una estimación sobre un patrón en los datos.
- Una función de error: Una función de error evalúa la predicción del modelo. Si hay ejemplos conocidos, una función de error puede hacer una comparación para evaluar la precisión del modelo.
- Un proceso de optimización del modelo: Si el modelo puede ajustarse mejor a los puntos de datos en el conjunto de entrenamiento, entonces se ajustan los pesos para reducir la discrepancia entre el ejemplo conocido y la estimación del modelo. El algoritmo repetirá este proceso «evaluar y optimizar», actualizando los pesos de manera autónoma hasta que se haya alcanzado un umbral de precisión.
Métodos de aprendizaje automático
Los modelos de aprendizaje automático se dividen en tres categorías principales.
Aprendizaje automático supervisado
El aprendizaje supervisado, también conocido como aprendizaje automático supervisado, se define por su uso de conjuntos de datos etiquetados para entrenar algoritmos para clasificar datos o predecir resultados con precisión. A medida que se alimenta al modelo con datos de entrada, el modelo ajusta sus pesos hasta que se ajusta adecuadamente. Esto ocurre como parte del proceso de validación cruzada para asegurarse de que el modelo evite el sobreajuste o el subajuste. El aprendizaje supervisado ayuda a las organizaciones a resolver una variedad de problemas del mundo real a gran escala, como clasificar el correo no deseado en una carpeta separada de su bandeja de entrada. Algunos métodos utilizados en el aprendizaje supervisado incluyen redes neuronales, naive bayes, regresión lineal, regresión logística, bosques aleatorios y máquinas de vectores de soporte (SVM).
Aprendizaje automático no supervisado
El aprendizaje no supervisado, también conocido como aprendizaje automático no supervisado, utiliza algoritmos de aprendizaje automático para analizar y agrupar conjuntos de datos no etiquetados. Estos algoritmos descubren patrones ocultos o agrupaciones de datos sin necesidad de intervención humana. La capacidad de este método para descubrir similitudes y diferencias en la información lo hace ideal para el análisis exploratorio de datos, estrategias de venta cruzada, segmentación de clientes y reconocimiento de patrones e imágenes. También se utiliza para reducir el número de características en un modelo a través del proceso de reducción de dimensionalidad. El análisis de componentes principales (PCA) y la descomposición en valores singulares (SVD) son dos enfoques comunes para esto. Otros algoritmos utilizados en el aprendizaje no supervisado incluyen redes neuronales, agrupamiento k-means y métodos de agrupamiento probabilístico.
Aprendizaje automático semi-supervisado
El aprendizaje semi-supervisado, ofrece un término medio entre el aprendizaje supervisado y el no supervisado. Durante el entrenamiento, utiliza un conjunto de datos etiquetado más pequeño para guiar la clasificación y la extracción de características de un conjunto de datos no etiquetado más grande. El aprendizaje semi-supervisado puede resolver el problema de no tener suficientes datos etiquetados para un algoritmo de aprendizaje supervisado. También ayuda si es demasiado costoso etiquetar suficientes datos.
Aprendizaje automático por refuerzo, es un modelo de aprendizaje automático similar al aprendizaje supervisado, pero el algoritmo no se entrena utilizando datos de muestra. Este modelo aprende a medida que avanza mediante la prueba y el error. Una secuencia de resultados exitosos se reforzará para desarrollar la mejor recomendación o política para un problema dado.
El sistema IBM Watson® que ganó el desafío Jeopardy! en 2011 es un buen ejemplo. El sistema utilizó el aprendizaje por refuerzo para aprender cuándo intentar una respuesta (o pregunta, como fue), qué cuadrado seleccionar en el tablero y cuánto apostar, especialmente en las preguntas dobles.
Algoritmos comunes de aprendizaje automático
Se utilizan varios algoritmos de aprendizaje automático comúnmente. Estos incluyen:
- Redes neuronales: Las redes neuronales simulan la forma en que funciona el cerebro humano, con una gran cantidad de nodos de procesamiento interconectados. Las redes neuronales son buenas para reconocer patrones y desempeñan un papel importante en aplicaciones como la traducción de idiomas naturales, el reconocimiento de imágenes, el reconocimiento de voz y la creación de imágenes.
- Regresión lineal: Este algoritmo se utiliza para predecir valores numéricos, basándose en una relación lineal entre diferentes valores. Por ejemplo, la técnica se podría utilizar para predecir los precios de las casas en función de los datos históricos de la zona.
- Regresión logística: Este algoritmo de aprendizaje supervisado realiza predicciones para variables de respuesta categóricas, como respuestas «sí/no» a preguntas. Se puede utilizar para aplicaciones como la clasificación de spam y el control de calidad en una línea de producción.
- Agrupamiento: Usando el aprendizaje no supervisado, los algoritmos de agrupamiento pueden identificar patrones en los datos para que se puedan agrupar. Las computadoras pueden ayudar a los científicos de datos a identificar las diferencias entre los elementos de datos que los humanos han pasado por alto.
- Árboles de decisión: Los árboles de decisión se pueden utilizar tanto para predecir valores numéricos (regresión) como para clasificar datos en categorías. Los árboles de decisión utilizan una secuencia de decisiones vinculadas que se pueden representar con un diagrama de árbol. Una de las ventajas de los árboles de decisión es que son fáciles de validar y auditar, a diferencia de la caja negra de la red neuronal.
- Bosques aleatorios: En un bosque aleatorio, el algoritmo de aprendizaje automático predice un valor o categoría combinando los resultados de varios árboles de decisión.
Ejemplos del uso de Machine Learning en el mundo real
A continuación, presentamos algunos ejemplos de Machine Learning que podrías encontrar en tu día a día:
- Reconocimiento de voz: también conocido como reconocimiento automático de voz (ASR), reconocimiento de voz por computadora, o texto-a-voz, es una capacidad que utiliza el procesamiento del lenguaje natural (NLP) para traducir el habla humana a un formato escrito. Muchos dispositivos móviles incorporan el reconocimiento de voz en sus sistemas para realizar búsquedas por voz, por ejemplo, Siri, o mejorar la accesibilidad para enviar mensajes de texto.
- Servicio al cliente: los chatbots en línea están reemplazando a los agentes humanos a lo largo del viaje del cliente, cambiando la forma en que pensamos en el compromiso del cliente a través de sitios web y plataformas de redes sociales. Los chatbots responden a preguntas frecuentes (FAQ) sobre temas como el envío, o brindan consejos personalizados, recomiendan productos complementarios o sugieren tallas para los usuarios. Ejemplos incluyen agentes virtuales en sitios de comercio electrónico; bots de mensajería utilizando Slack y Facebook Messenger; y tareas normalmente realizadas por asistentes virtuales y asistentes de voz.
- Visión por computadora: esta tecnología de IA permite a las computadoras obtener información significativa de imágenes digitales, videos y otros entradas visuales, y luego tomar la acción correspondiente. Impulsada por redes neuronales convolucionales, la visión por computadora tiene aplicaciones en la etiquetación de fotos en las redes sociales, imágenes de radiología en la atención médica y vehículos autónomos en la industria automotriz.
- Motores de recomendación: utilizando datos de comportamiento de consumo pasado, los algoritmos de IA pueden ayudar a descubrir tendencias de datos que se pueden utilizar para desarrollar estrategias de venta cruzada más efectivas. Este enfoque es utilizado por los minoristas en línea para hacer recomendaciones relevantes de productos a los clientes durante el proceso de pago.
- Trading automatizado de acciones: diseñadas para optimizar las carteras de acciones, las plataformas de trading de alta frecuencia impulsadas por IA realizan miles o incluso millones de transacciones por día sin intervención humana.
- Detección de fraude: los bancos y otras instituciones financieras pueden utilizar Machine Learning para detectar transacciones sospechosas. El aprendizaje supervisado puede entrenar un modelo utilizando información sobre transacciones fraudulentas conocidas. La detección de anomalías puede identificar transacciones que parecen atípicas y merecen una investigación más detallada.
Desafíos del aprendizaje automático
El desarrollo de la tecnología del aprendizaje automático ciertamente ha hecho nuestras vidas más fáciles. Sin embargo, su implementación en los negocios también ha suscitado una serie de preocupaciones éticas sobre las tecnologías de la inteligencia artificial. Algunas de estas preocupaciones incluyen:
Singularidad tecnológica
Aunque este tema atrae mucha atención pública, muchos investigadores no están preocupados por la idea de que la IA supere la inteligencia humana en un futuro cercano. La singularidad tecnológica también se conoce como IA fuerte o superinteligencia. El filósofo Nick Bostrum define la superinteligencia como «cualquier intelecto que supere ampliamente a los mejores cerebros humanos en prácticamente todos los campos, incluyendo la creatividad científica, la sabiduría general y las habilidades sociales». Aunque la superinteligencia no es inminente en la sociedad, la idea plantea algunas preguntas interesantes a medida que consideramos el uso de sistemas autónomos, como los autos sin conductor. Es poco realista pensar que un automóvil autónomo nunca tendrá un accidente, pero ¿quién es responsable y liable en esas circunstancias? ¿Deberíamos seguir desarrollando vehículos autónomos, o limitar esta tecnología a vehículos semi-autónomos que ayuden a las personas a conducir de manera segura? El jurado todavía está deliberando sobre esto, pero estos son los tipos de debates éticos que surgen a medida que se desarrollan nuevas e innovadoras tecnologías de IA.
Impacto de la IA en los trabajos
Si bien gran parte de la percepción pública de la inteligencia artificial se centra en la pérdida de empleos, esta preocupación probablemente debería ser replanteada. Con cada tecnología disruptiva y nueva, vemos que la demanda del mercado para roles específicos de trabajo cambia. Por ejemplo, cuando miramos la industria automotriz, muchos fabricantes, como GM, se están enfocando en la producción de vehículos eléctricos para alinearse con las iniciativas ecológicas. La industria de la energía no desaparecerá, pero la fuente de energía está cambiando de una economía basada en combustibles a una basada en electricidad.
De manera similar, la inteligencia artificial cambiará la demanda de trabajos a otras áreas. Habrá necesidad de personas para ayudar a administrar los sistemas de IA. Todavía habrá personas que aborden problemas más complejos dentro de las industrias que es más probable que se vean afectadas por los cambios en la demanda de trabajo, como el servicio al cliente. El mayor desafío con la inteligencia artificial y su efecto en el mercado laboral será ayudar a las personas a hacer la transición a nuevos roles que estén en demanda.
Privacidad
La privacidad suele discutirse en el contexto de la privacidad de datos, la protección de datos y la seguridad de los mismos. Estas preocupaciones han permitido a los responsables políticos avanzar más en los últimos años. Por ejemplo, en 2016 se creó la legislación GDPR para proteger los datos personales de las personas en la Unión Europea y el Área Económica Europea, otorgando a los individuos un mayor control sobre sus datos. En los Estados Unidos, los estados individuales están desarrollando políticas, como la Ley de privacidad del consumidor de California (CCPA), que fue introducida en 2018 y requiere que las empresas informen a los consumidores sobre la recopilación de sus datos. La legislación como esta ha obligado a las empresas a replantearse cómo almacenan y utilizan la información de identificación personal (PII). Como resultado, las inversiones en seguridad se han convertido en una prioridad cada vez mayor para las empresas mientras buscan eliminar cualquier vulnerabilidad y oportunidades de vigilancia, hacking y ciberataques.
Sesgo y discriminación
Los casos de sesgo y discriminación en una serie de sistemas de aprendizaje automático han planteado muchas preguntas éticas sobre el uso de la inteligencia artificial. ¿Cómo podemos protegernos contra el sesgo y la discriminación cuando los propios datos de entrenamiento pueden ser generados por procesos humanos sesgados? Si bien las empresas suelen tener buenas intenciones en sus esfuerzos de automatización, Reuters (enlace externo a IBM) destaca algunas de las consecuencias imprevistas de incorporar la IA en las prácticas de contratación. En su esfuerzo por automatizar y simplificar un proceso, Amazon discriminó involuntariamente a los candidatos a empleo por género para roles técnicos, y la compañía finalmente tuvo que abandonar el proyecto. Harvard Business Review (enlace externo a IBM) ha planteado otras preguntas pertinentes sobre el uso de la IA en las prácticas de contratación, como qué datos debería poder utilizar para evaluar a un candidato para un puesto.
El sesgo y la discriminación no se limitan a la función de recursos humanos; pueden encontrarse en una serie de aplicaciones, desde software de reconocimiento facial hasta algoritmos de redes sociales.
A medida que las empresas son más conscientes de los riesgos asociados con la IA, también se han vuelto más activas en esta discusión sobre la ética y los valores de la IA. Por ejemplo, IBM ha eliminado sus productos de reconocimiento facial y análisis de propósito general. El CEO de IBM, Arvind Krishna, escribió: «IBM se opone firmemente y no tolerará el uso de ninguna tecnología, incluida la tecnología de reconocimiento facial ofrecida por otros proveedores, para la vigilancia masiva, el perfilado racial, la violación de los derechos y libertades humanos básicos o cualquier propósito que no sea coherente con nuestros valores y Principios de Confianza y Transparencia».
Responsabilidad
Dado que no existe una legislación significativa para regular las prácticas de inteligencia artificial, no hay un mecanismo real de cumplimiento para garantizar que se practique una IA ética. Los incentivos actuales para que las empresas sean éticas son las repercusiones negativas de un sistema de IA poco ético en la línea de fondo. Para llenar esta brecha, han surgido marcos éticos como parte de una colaboración entre éticos e investigadores para gobernar la construcción y distribución de modelos de IA dentro de la sociedad. Sin embargo, en este momento, solo sirven como guía.
Ventajas y desventajas del aprendizaje automático
El aprendizaje automático ha tenido aplicaciones que van desde predecir el comportamiento del cliente hasta ser el sistema operativo de automóviles autónomos.
En cuanto a las ventajas, el aprendizaje automático puede ayudar a las empresas a comprender a sus clientes a un nivel más profundo. Al recopilar datos de clientes y correlacionarlos con su comportamiento a lo largo del tiempo, los algoritmos de aprendizaje automático pueden aprender asociaciones y ayudar a los equipos a adaptar el desarrollo de productos y las iniciativas de marketing a la demanda del cliente.
Algunas empresas utilizan el aprendizaje automático como el motor principal en sus modelos de negocio. Uber, por ejemplo, utiliza algoritmos para hacer coincidir a los conductores con los pasajeros. Google utiliza el aprendizaje automático para mostrar anuncios relevantes en las búsquedas.
Pero el aprendizaje automático también tiene sus desventajas. En primer lugar, puede resultar costoso. Los proyectos de aprendizaje automático suelen ser liderados por científicos de datos, quienes tienen salarios altos. Además, estos proyectos requieren una infraestructura de software que puede ser costosa.
También existe el problema del sesgo del aprendizaje automático. Los algoritmos entrenados en conjuntos de datos que excluyen ciertas poblaciones o contienen errores pueden llevar a modelos inexactos del mundo que, en el mejor de los casos, fallan y, en el peor de los casos, son discriminatorios. Cuando una empresa basa sus procesos comerciales en modelos sesgados, puede enfrentar daños regulatorios y de reputación.
¿Cuál es el futuro del aprendizaje automático?
Aunque los algoritmos de aprendizaje automático han existido durante décadas, han adquirido nueva popularidad a medida que la inteligencia artificial ha crecido en importancia. Los modelos de aprendizaje profundo, en particular, impulsan las aplicaciones de inteligencia artificial más avanzadas de hoy en día.
Las plataformas de aprendizaje automático se encuentran entre los campos más competitivos de la tecnología empresarial, con la mayoría de los principales proveedores, incluidos Amazon, Google, Microsoft, IBM y otros, compitiendo por captar clientes para servicios de plataforma que cubren todo el espectro de actividades de aprendizaje automático, desde la recopilación y preparación de datos, hasta la construcción de modelos, entrenamiento y implementación de aplicaciones.
A medida que el aprendizaje automático sigue aumentando en importancia para las operaciones comerciales y la inteligencia artificial se vuelve más práctica en entornos empresariales, la guerra de las plataformas de aprendizaje automático solo se intensificará.
La investigación continua en el aprendizaje profundo y la inteligencia artificial se centra cada vez más en el desarrollo de aplicaciones más generales. Los modelos de inteligencia artificial de hoy requieren un entrenamiento extenso para producir un algoritmo altamente optimizado para realizar una tarea específica. Pero algunos investigadores están explorando formas de hacer que los modelos sean más flexibles y están buscando técnicas que permitan a una máquina aplicar el contexto aprendido de una tarea a futuras tareas diferentes.