martes, 12 de marzo de 2024

¿Llega un nuevo invierno de la inteligencia artificial?

 


La inteligencia artificial ha pasado de ser una tecnología de moda a convertirse en el centro de atención mediática por su capacidad para generar sorpresa. La velocidad a la que se han ido sucediendo los avances en este terreno en poco tiempo y los impactantes resultados obtenidos generan tanta expectación como preocupación, tanto por su poder disruptivo en la mayoría de las actividades económicas, como por los posibles efectos negativos que puede tener su mal uso. La popularidad adquirida en los últimos dos años por los modelos amplios de lenguaje (large language models), como ChatGPT de OpenAI o Gemini de Google, ha puesto en manos de cualquiera la posibilidad de crear contenido (texto, imagen o vídeo) con estas potentes herramientas, sin necesidad de poseer conocimientos técnicos.

Todo parece indicar que estamos ante una revolución tecnológica sin precedentes. El propio Bill Gates, fundador de Microsoft y uno de los grandes gurús de la era digital, comparaba hace unos días el desarrollo de la inteligencia artificial con hitos fundamentales de la historia de la innovación, como la creación del microprocesador, el ordenador personal, internet y el teléfono móvil. Todos ellos transformaron los cimientos de las vidas de las personas, contribuyendo a cambiar la economía y la sociedad, y todo parece indicar que la línea principal de investigación en inteligencia artificial -basada en el aprendizaje automático y las redes neuronales- va a producir un terremoto similar al que trajeron consigo esos avances.

A pesar del convencimiento generalizado sobre el descomunal potencial de crecimiento a medio plazo de estas tecnologías, hay voces que predicen que, por el contrario, esta época dorada iniciada hace poco más de un decenio podría estar tocando techo, de manera que entraríamos en otro “invierno de la inteligencia artificial”, como los que tuvieron lugar en el pasado.

No nos engañemos, aunque solamente llevamos oyendo hablar de máquinas que ganan a campeones de ajedrez, chatbots, vehículos autónomos y asistentes personales desde mediados de la pasada década, estamos ante una disciplina cuyos orígenes teóricos se remontan a la década de los años cincuenta del siglo XX, con los trabajos de Alan Turing, John McCarthy, Marvin Misky y Claude Shannon, entre muchos otros. La historia de la inteligencia artificial ha experimentado crisis cíclicas, en las que ha cundido el desánimo por el fracaso de los avances o el incumplimiento de las expectativas depositadas, y la financiación de la investigación se ha visto frenada ante las dificultades para rentabilizar las cuantiosas inversiones realizadas. Es lo que ha venido a denominarse “inviernos de la inteligencia artificial”, momentos de parón en la investigación y desarrollo, como los que tuvieron lugar entre 1974 y 1980, o el iniciado a principios de la década de los 90.

¿Cuáles son las principales limitaciones y obstáculos que puede encontrar actualmente el desarrollo de la inteligencia artificial? En el caso general del aprendizaje automático y el aprendizaje profundo, que son las ramas de la inteligencia artificial en los que está basado el boom de los últimos años, el principal problema es que están basadas en el big data, es decir, se trata de algoritmos devoradores de datos, que utilizan para generar patrones, pero, ante situaciones donde los datos no están disponibles o resultan difíciles de conseguir en grandes cantidades, el aprendizaje profundo puede no resultar la mejor solución. Por otro lado, el uso de estos sistemas puede atentar contra los derechos individuales de las personas, en términos de privacidad e intimidad.

Además, en el estado actual de desarrollo, esta tecnología no es capaz de distinguir claramente causalidad y correlación. Puede identificar que existe una relación entre el suceso A y el B, pero no suele poder establecer si hay una relación causal entre ambos. Una de las principales críticas que reciben estos sistemas es que no entienden el mundo que les rodea, como ha demostrado hace poco la herramienta Gemini de Google que, al pedírsele que generara imágenes de soldados alemanes de 1943, ofreció un catálogo compuesto por mujeres asiáticas y hombres negros, se conoce que en un intento de garantizar un equilibrio étnico dentro de las fuerzas de Tercer Reich. Algo parecido le ocurrió al crear imágenes de vikingos del siglo XII.

Algunos expertos consideran que el aprendizaje automático debería ser combinado con otras técnicas de la inteligencia artificial para poder seguir avanzando satisfactoriamente.

En el caso concreto de la inteligencia artificial generativa, es decir, la que se utiliza para crear contenidos como textos, imágenes, vídeos o líneas de código de programación, a las limitaciones anteriores se suman otras de distinto índole. Por una parte, el propio funcionamiento de los algoritmos con frecuencia ofrece malos resultados, lo que se denomina “alucinaciones”, como lo que hemos visto de Gemini un poco más arriba, lo que pone en cuestión su fiabilidad. Por otra, no existe un modelo sólido de negocio en empresas como OpenAI y, teniendo en cuenta lo costoso que supone desarrollar y mantener sistemas como ChatGPT-4, la falta de recursos financieros se puede convertir en un cuello de botella para seguir adelante.

A lo anterior hay que sumarle que los modelos amplios de lenguaje se nutren mayormente de información y contenidos procedentes de internet para realizar sus creaciones, contenidos que en su gran mayoría están sujetos a derechos de autor. El director de Open AI, Sam Altman, llegó a afirmar en enero que sería imposible entrenar a los modelos actuales de inteligencia artificial sin violar los derechos de autor, pero ¿serían rentables sus aplicaciones si tuviese que pagar por ellos? 

Una última cuestión es la relativa al impacto ambiental de los sistemas de inteligencia artificial, cuya huella de carbono derivada de las emisiones de gases efecto invernadero por la cantidad de energía que demandan es creciente, a medida que se hacen más complejos y sofisticados. Se ha llegado a calcular que entrenar a un solo modelo de inteligencia artificial produce una huella de carbono superior a las de cinco automóviles durante toda su vida útil.

¿Estaremos ante un nuevo invierno de la inteligencia artificial? Por si acaso, vayan cogiendo ropa de abrigo.

 

 

 

 

 

martes, 27 de febrero de 2024

La inteligencia artificial revoluciona las búsquedas en internet

 


La inteligencia artificial generativa no deja de producir titulares en su breve vida mediática. Desde que hace poco más de un año se convirtió en la tecnología de moda gracias a la herramienta ChatGPT, su capacidad para erigirse en amenaza para actividades económicas y competencias profesionales no ha dejado de crecer. El potencial transformador que presenta reside en su habilidad para generar contenidos -texto, imagen, vídeo o código de programación- utilizando para ello grandes cantidades de datos, generalmente procedentes de internet. Precisamente, una de sus aplicaciones más novedosas está asociada a uno de los servicios más populares y utilizados de la web: los buscadores.

En mayo de 2023, Google presentó un nuevo paradigma de búsqueda en las redes, que ha bautizado como Search Generative Experiences (SGE). Básicamente, se trata de un motor de búsqueda que, basado en la inteligencia artificial, ofrece respuestas directas y redactadas a las consultas realizadas, en vez de solamente la tradicional lista de enlaces web. En la práctica la herramienta recoge información de fuentes diversas y las incorpora en una única respuesta que aparece en la parte superior de la página. En la parte de debajo de la página seguirán apareciendo los resultados de forma similar a los que ahora ofrece Google Search.

No obstante, antes de la de Google, la primera experiencia en este sentido la llevó a cabo Microsoft, cuando integró en su buscador Bing noticias en tiempo real gracias a la colaboración de la empresa OpenAI, la creadora de ChatGPT. El modelo utilizado se nutría de contenido procedente de toda la red de redes. Posteriormente, la compañía fundada por Bill Gates ha rebautizado su producto como Microsoft Copilot y lo anunció en el blog corporativo en noviembre del pasado año.

El caso de Google es similar. Su servicio Gemini está construido sobre modelos amplios de lenguaje (large language models) entrenados con contenidos de internet y de otras fuentes, que trabajan con texto, imágenes, audio y vídeo. La versión experimental de esta herramienta ya está disponible en más de cien países. En esta primera versión del buscador todavía se muestran los enlaces web que le han servido al sistema para elaborar la respuesta a la consulta realizada.

Estos novedosos sistemas de búsqueda siguen una filosofía denominada Retrieval-augmented generation (RAG), una infraestructura de inteligencia artificial destinada a mejorar la calidad de las respuestas generadas por los modelos amplios de lenguaje (LLM), complementando la representación interna de la información que producen con fuentes externas de conocimiento. Esta técnica permite, por una parte, que el modelo tenga acceso a los datos más fiables y actualizados, y, por otra, que el usuario disponga de la referencia de las fuentes de información usadas por el modelo para poder comprobar su relevancia y precisión. De acuerdo con los expertos, el enfoque RAG limita la probabilidad de que la inteligencia artificial generativa ofrezca información incorrecta o que “alucine”, como se dice en el argot del sector cuando genera resultados inventados. También reduce la necesidad de tener que entrenar constantemente el modelo con datos nuevos, con el consecuente ahorro de costes que ello implica.

Como parece evidente a simple vista, este nuevo enfoque en los buscadores provocará grandes cambios en el marketing digital y la publicidad, tal y como los hemos conocido hasta ahora. Las marcas deberán conocer a fondo el funcionamiento de los sistemas SGE para dar con la forma óptima de posicionar sus mensajes en las redes. En este sentido, cobra especial relevancia el diversificar el contenido que se vuelca en internet, combinando con el texto distintos formatos, como imágenes, infografías o vídeos, pues ello contribuye a que aparezca entre los resultados de búsqueda. Esto conlleva que se intensificará la competencia entre las empresas por renovar y mejorar su contenido en el ciberespacio. El material utilizado debe estar debidamente adaptado para la inteligencia artificial generativa, es decir, debe poder ser interpretable por estos modelos, primando la claridad, la información relevante y el uso estratégico de palabras clave.

 

martes, 13 de febrero de 2024

La tecnología digital ha cambiado la educación, pero no la ha transformado

 


El uso de la tecnología digital en la educación tiene una tradición que se remonta al comienzo del presente siglo; al principio a través de las aulas específicas para impartir conocimientos de informática, y, más adelante, mediante la introducción de dispositivos y programas como soporte instrumental para la enseñanza de las materias curriculares. De esta manera, ya es algo corriente ver en una clase cualquiera la utilización de pizarras electrónicas, proyectores y ordenadores. No obstante, entre la línea de pensamiento pedagógico más tecnófilo siempre se ha considerado que la digitalización de la enseñanza se produce a un ritmo muy inferior al que lo hace la sociedad. Se argumenta que los estudiantes, habitantes ya de un mundo completamente digital, se enfrentan en el aula a métodos de aprendizaje heredados de otras épocas, y se subraya la necesidad de adecuar la enseñanza a las necesidades de la ciudadanía del siglo XXI.

A menudo se ha dado por supuesto que usar tecnología en el aula solamente trae consigo ventajas, sin embargo, cada vez se alzan más voces que ponen en cuestión este axioma. A mediados del pasado año, el Gobierno de Suecia anunció la paralización del avance de su plan de digitalización en centros educativos para volver a fomentar el uso de los libros de texto. Esta decisión vino motivada porque el Estudio Internacional para el Progreso de la Comprensión Lectora (PIRLS) referido a 2021 detectó un descenso del nivel del alumnado del país en este campo, de forma que las autoridades educativas quieren centrar sus esfuerzos en habilidades básicas como leer, escribir y contar, todo ello apoyado por medios tradicionales.

La Unesco ha reflexionado en su informe GEM (Global Education Monitoring) de 2023 sobre las ventajas y desventajas de utilizar la tecnología en la educación, estableciendo una postura fuertemente crítica al respecto. Bajo el título Tecnología en la educación: ¿una herramienta en términos de quién?, el trabajo subraya la necesidad de aprender a vivir tanto con tecnología como sin ella (es decir, reducir su dependencia), que los jóvenes desarrollen la capacidad para identificar la realmente necesaria entre la avalancha de información que les rodea, y que la tecnología debe apoyar, pero nunca suplantar la relación humana. De cara a mejorar la educación, la digitalización tiene que ser un complemento de la interacción cara a cara con el docente, jamás un sustituto. La tecnología se nos vende como un vehículo para el aprendizaje personalizado, y, con frecuencia, esta promesa nos hace olvidar que el corazón de la educación reposa sobre unas dimensiones sociales y humanas.

La Unesco se muestra escéptica sobre el valor que supuestamente añade la digitalización a los procesos educativos, destacando que no existe una evidencia robusta al respecto. Por una parte, la innovación se produce a tal velocidad que es muy difícil medir sus efectos. Como ejemplo de ello, los productos de tecnología educativa cambian de media cada 36 meses. Por otro lado, una parte importante de los estudios que defienden el impacto positivo están realizados o financiados, directa o indirectamente, por las empresas que comercializan los productos y servicios, en un intento de refutar análisis procedentes de entidades independientes que niegan dicho impacto.

Con todo, el estudio admite que la tecnología educativa puede aportar mejoras a determinados tipos de aprendizaje en algunos contextos. Una ventaja evidente es que ha facilitado el acceso a cantidades ingentes de recursos educativos online. En cualquier caso, su introducción debe dirigirse a la consecución de objetivos de aprendizaje, y tiene que estar integrada en la orientación pedagógica aplicada en cada momento. Igualmente, la Unesco señala que un uso excesivo o inapropiado de dispositivos y servicios digitales puede tener un efecto negativo en los rendimientos del estudiante, y pone de ejemplo los resultados del informe PISA, que refleja que en catorce países de los analizados se detectó una relación negativa entre la proximidad de los teléfonos móviles y el aprendizaje del alumnado. El debate sobre si los móviles deben estar en el aula o prohibidos en ella es especialmente intenso en España en estos momentos, con comunidades autónomas a favor de una u otra postura.

Otro aspecto interesante que destaca este trabajo es que la velocidad de la innovación tecnológica dificulta la adaptación de los sistemas educativos a la digitalización. Poco a poco los países van definiendo los estándares de habilidades digitales que van a necesitar dominar los estudiantes para vivir y trabajar en un mundo conectado, si bien muchos alumnos no tienen la oportunidad de practicar con herramientas digitales en los centros escolares: de acuerdo con las cifras que aporta el estudio, solamente en torno al 10% de los estudiantes de 15 años utiliza dispositivos digitales más de una hora a la semana en las asignaturas de matemáticas y ciencias. Asimismo, los docentes en general se sienten poco preparados para impartir clases con tecnología, y la evidencia es que únicamente la mitad de los países analizados tienen definidos estándares relacionados con las habilidades TIC requeridas para los profesores.

Como conclusión, la pregunta que surge es si la tecnología puede resolver los mayores retos de la educación. Para la Unesco, estos desafíos son tres: la equidad y la inclusión, la calidad y la eficiencia. En el primer caso, es cierto que la digitalización reduce las barreras de acceso a la educación para grupos desfavorecidos de población, pero sigue existiendo una importante brecha digital en la conectividad a internet y en el uso de dispositivos. En relación con la calidad educativa, el informe reconoce que la tecnología digital estimula el compromiso del estudiante con el proceso de aprendizaje y favorece el trabajo colaborativo e interconectado, aunque una aproximación educativa individualizada reduce las oportunidades del alumnado de aprender en entornos de la vida real, y tiene un impacto negativo en su privacidad y bienestar. Finalmente, el análisis realizado concede que, en términos de eficiencia, la tecnología digital permite disminuir el tiempo que docentes y alumnos dedican a tareas rutinarias de poco valor añadido, cuyo ahorro puede ser destinado a actividades con un mayor sentido educativo. Para resumir todas las reflexiones en una sola frase: la tecnología digital ha cambiado la educación, pero no la ha transformado.

lunes, 29 de enero de 2024

La inteligencia artificial transforma el mercado de trabajo

 


La rápida evolución de la inteligencia artificial durante la pasada década ha hecho saltar todas las alarmas en relación con sus posibles efectos sobre el empleo. A medida que las máquinas adquieren más habilidades, más peligro se percibe de que puedan llegar a sustituir a los humanos. No obstante, el futuro del trabajo depende de un complejo esquema de relaciones entre los sistemas inteligentes y los humanos que no implica necesariamente la sustitución de los segundos por los primeros. A menudo se vuelve la vista atrás para analizar qué pasó con el trabajo en las grandes transformaciones tecnológicas del pasado, y la conclusión es que acabaron por crear mucho más empleo del que destruyeron. Pero para algunos esta vez no será así.

Para Goldman Sachs, la inteligencia artificial generativa puede elevar un 7% el PIB global, aunque también apunta que va a producir impactos significativos en los mercados de trabajo, de forma que la automatización de tareas podría afectar a un total de 300 millones de empleos a tiempo completo.

Un informe sobre el futuro del trabajo publicado en mayo por el Foro Económico Mundial identificaba como tendencia la transformación de los modelos de negocio empresariales a raíz de la digitalización: más del 85% de las empresas encuestadas en el trabajo reconocen que sus procesos se van a ver afectados por la adopción de tecnologías de vanguardia. Alrededor del 75% de las compañías prevé adoptar big data, inteligencia artificial y cloud computing.

Con todo, este estudio se muestra en principio optimista sobre el mercado de trabajo. De acuerdo con su predicción, la aplicación de la mayoría de las tecnologías traerá consigo creación de empleo en los próximos cinco años, e identifica los mayores yacimientos en profesiones relacionadas con la analítica de big data, la gestión medioambiental y del cambio climático, y la encriptación y la ciberseguridad. Por el contrario, este análisis también prevé destrucción de empleo causado por las tecnologías agrícolas, las plataformas digitales y apps, el comercio electrónico y la inteligencia artificial. El saldo neto se espera que sea negativo, habiéndose creado finalmente menos empleo del que se destruye. Así, los cálculos arrojan un crecimiento estructural de 69 millones de empleos frente a una caída de 83 millones, lo que equivale a una pérdida neta de 14 millones de empleos, aproximadamente el 2% del que hay hoy en día.

Los perfiles laborales cuya demanda probablemente crezca más rápido serán sobre todo aquellos relacionados con la digitalización y la sostenibilidad. El Foro Económico Mundial identifica entre éstos los de especialista en inteligencia artificial y aprendizaje automático, los especialistas en sostenibilidad, analistas de inteligencia de negocio y analistas en seguridad informática. Les siguen en importancia los de ingeniero en energías renovables, ingeniero de instalaciones solares e ingeniero de sistemas. En el otro extremo, los perfiles más proclives a desaparecer a causa del cambio tecnológico son los relacionados con el trabajo de oficina, como administrativos y secretarias, cajeros de banco, cobradores, taquilleros y personal dedicado a teclear datos.

El Foro Económico Mundial predice que el 44% de las habilidades de los trabajadores se verán disrumpidas en los próximos cinco años. Las habilidades cognitivas van cobrando cada una mayor importancia de cara a ejercer una profesión, por la importancia que presenta ahora la capacidad de resolución de problemas complejos. Destaca en este sentido la importancia que se le otorga al pensamiento creativo, al pensamiento analítico y a los conocimientos tecnológicos.

lunes, 15 de enero de 2024

Los peligros y las amenazas que acechan en internet

 


El vivir en un mundo digital nos convierte en víctimas potenciales de recibir ataques a través de internet. Ninguna persona o empresa está a salvo, y se calcula que a finales de 2020 el coste anual de la ciberdelincuencia para la economía mundial alcanzó los 5,5 billones de euros, el doble de la cifra de 2015. La invasión de Ucrania en 2022 no ha hecho más que agravar la situación, pues ha movilizado a ejércitos de hackers y ciberactivistas a favor de uno u otro bando, dispuestos a sembrar el caos y la destrucción en las redes.

La ciberseguridad se ha convertido en la pieza clave de transición digital, dado que solamente una estrategia de defensa y protección robusta y efectiva ante las amenazas que proliferan por el ciberespacio puede garantizar una navegación segura en un entorno de confianza. Pero igual de relevante resulta que los usuarios sean perfectamente conscientes de los riesgos asociados al uso de tecnología, y que sepan evitarlos.

Año tras año los ciberdelitos aumentan en número e intensidad. El año pasado tuvieron lugar notables incidentes de seguridad por todo el mundo. La empresa de seguridad Astra destaca los siguientes por su trascendencia:

  • En mayo, y en el marco del conflicto de la guerra de Ucrania, la Fundación Skolkovo, que representa el esfuerzo ruso por emular Silicon Valley, sufrió un ataque por parte de hacktivistas ucranianos, que accedieron a los servidores de la organización y a sus archivos.
  • Por otro lado, la plataforma de finanzas descentralizadas (DeFi) Jimbos Protocol fue objeto del robo de 4 000 unidades de la ciberdivisa Ether por un valor de 7,5 millones de dólares.
  • Y más: grandes empresas británicas, como British Airways, Aer Lingus, Boots, y la BBC, sufrieron el denominado ataque a la cadena de suministro al ser hackeado el software de Transferencia de Archivos Gestionados (MFT) MOVEit que utilizan, sufriendo el robo de grandes cantidades de datos personales de sus clientes. La misma brecha de seguridad en este software afectó a la agencia francesa de empleo, Pôle emploi.
  • En el mes de marzo, la Oficina de Registros Criminales del Reino Unido (ACRO) recibió un ciberataque que dejó su web fuera de servicio.
  • Por su parte, la web Yellow Pages fue víctima de una acción de ransomware, es decir, el secuestro de información sensible mediante su encriptación a cambio de un rescate.
  • Finalmente, el colectivo de hackers conocido como Medusa robó información personal de los alumnos de la red de centros educativos públicos de Minneapolis, para posteriormente publicarla en la dark web.

De acuerdo con la revista Forbes, ya en el primer trimestre de 2023 los ciberataques globales crecieron un 7% respecto del mismo periodo del año precedente. Igualmente, estima que son detectadas 560 000 piezas de malware nuevas cada día, y que existen más de 1 000 millones de estos programas en circulación. Cada vez resulta más difícil mantenerse a salvo en las redes, pues la cifra de personas en el mundo afectadas por brechas de seguridad en lo que llevamos de 2023 asciende a 340 millones. Se dice pronto.

España se ha convertido en un objetivo preferido para los ciberatacantes. De acuerdo con un informe de la firma eslovaca de ciberseguridad ESET, durante la primera mitad de 2023, nuestro país recibió el 4,9% de todos los ataques a escala mundial, solamente detrás de Japón (9,5%) y Estados Unidos (7,8%). El ransomware ha sido una de las modalidades más extendidas en este periodo, y han sufrido delitos de esta clase entidades como el Hospital Clínic de Barcelona, Euskaltel o Telepizza.

Ser más digitales nos hace más cibervulnerables. Por ejemplo, el teléfono móvil, un dispositivo que lleva todo el mundo en el bolso o el bolsillo, se ha convertido en un objetivo destacado para los ciberdelincuentes, de forma que, según Statista, a finales de 2022 se producían más de dos millones de ataques a móviles al mes en el mundo.

La ciberseguridad debe estar en el corazón de cualquier estrategia de digitalización, si bien, como se ha mencionado al principio, el usuario es la pieza más vulnerable de cualquier sistema de seguridad, y, por ello, resulta un factor crítico que conozca perfectamente los peligros a los que se enfrenta en el ciberespacio, y que disponga de los conocimientos y las herramientas para defenderse de ellos.

lunes, 8 de enero de 2024

Necesitamos que la inteligencia artificial comprenda el mundo

 


El éxito reciente del chatbot ChatGPT ha puesto en el centro del debate público la inteligencia artificial, una tecnología que ha conocido un avance considerable a lo largo de la década pasada de forma que ya está presente en numerosos aspectos de nuestras vidas. Aunque ya tratamos con sistemas inteligentes de forma cotidiana, muchas veces sin darnos cuenta (por ejemplo, cuando las plataformas nos recomiendan contenidos audiovisuales personalizados o cuando utilizamos el texto predictivo al escribir un mensaje en el móvil), el producto de la empresa Open.AI nos ha enfrentado a un nuevo fenómeno asaz vistoso, como es contemplar la capacidad creativa de las maquinas.

Este tipo de inteligencia artificial se denomina “generativa”, pues da lugar a algún tipo de creación, ya sea un texto, una imagen o sonido. A pesar de lo novedoso que parecen estas habilidades, ya existe una larga tradición de algoritmos que escriben novelas o poesía, o que pintan cuadros o diseñan imágenes. Es probable que la popularidad que han cosechado los llamados Large Language Models (LLM) -como ChatGPT, Turing NLG de Microsoft, Bard de Google o Gopher de Deep Mind- resida en que han abandonado el ámbito de los expertos y están en la mayoría de los casos en manos de la gente. De esta forma, todo el mundo ha podido probar en primera persona cómo funcionan estos chatbots y las posibilidades que ofrecen.

Ahora bien, a pesar de lo espectacular de los resultados que ofrecen, existen voces que señalan las limitaciones de esta rama de la inteligencia artificial, y lo lejos que está de emular las funciones del cerebro humano. El pasado agosto, el físico Michio Kaku denunciaba el sensacionalismo que se ha generado en torno a estos robots conversacionales, que, a su juicio, no hacen más que seleccionar y ordenar contenidos de internet, sin saber discernir la verdad de la ficción, ni distinguir los datos reales de la desinformación. Básicamente, los LLM no serían más que versiones avanzadas de los buscadores de la web, como Google, que han estado funcionando durante los últimos veinte años.

Uno de los mayores críticos de la inteligencia artificial actual es sin duda el profesor y empresario Gary Marcus, quien considera que la rama más utilizada hoy en día, el aprendizaje automático y las redes neuronales -responsables de los avances producidos en los últimos veinte años-, presenta carencias relativas al razonamiento, no resulta fiable y se aleja de la forma de pensar que tenemos los humanos. A su juicio, las carencias que presenta el aprendizaje profundo de las redes neuronales podrían ser salvadas gracias a la denominada inteligencia artificial simbólica, una aproximación clásica a esta tecnología que hoy en día ha sido desplazada a un segundo plano.

La inteligencia artificial simbólica se centra en la manipulación y el procesado de símbolos y conceptos en vez de grandes cantidades de datos numéricos, como hace el aprendizaje automático. Este tipo de algoritmos funciona manejando símbolos que representan objetos o ideas del mundo y sus relaciones. La principal aproximación de esta rama es el uso de programación basada en la lógica, en la que las normas y los axiomas son utilizados para realizar inferencias y deducciones.

Mientras que la inteligencia artificial simbólica es más adecuada para trabajar en entornos de conocimiento bien definido y estructurado, el aprendizaje automático es más útil cuando existen grandes volúmenes de datos y patrones complejos.

La tesis que defiende Gary Marcus es que la inteligencia artificial actual basada en el aprendizaje automático y el aprendizaje profundo solamente podrá seguir evolucionando si se combina con el enfoque simbólico, en la forma de una inteligencia artificial “híbrida”. De no ser así, predice que se podría producir otro “invierno de la inteligencia artificial”, es decir, un estancamiento y un desencanto generalizado en torno a esta tecnología, como el que tuvo lugar a partir de los años 70 del siglo pasado.

Para Gary Marcus el futuro de la inteligencia artificial no puede basarse en modelos basados en un exceso de datos y en una carencia de conocimiento y raciocinio. Necesitamos sistemas que manifiesten una elevada comprensión del mundo, lo que conlleva centrarnos en cómo se representa, adquiere y razona el conocimiento abstracto.

Esta tercera vía de innovación está siendo explorada por IBM a través de lo que denomina inteligencia artificial neuro simbólica, un planteamiento experimental que combina el uso de redes neuronales convolucionales dedicadas a la clasificación de imágenes con la capacidad de establecer relaciones entre elementos simbólicos, como secuencias de palabras, de forma que el sistema aprende de sus errores de una forma mucho más rápida que mediante el entrenamiento clásico de una red neuronal.

 

 

lunes, 18 de diciembre de 2023

El auge de los medios digitales y la amenaza de la desinformación

 


El informe anual que publica el Reuters Institute for the Study of Journalism ofrece una panorámica sobre los cambios en los hábitos informativos de la población mundial. La edición de 2023 confirma la aceleración que ha tenido lugar en la tendencia hacia entornos informativos más digitales, móviles y dominados por las plataformas, especialmente desde la pandemia y la invasión de Ucrania. Con todo, la confianza en las noticias ha caído globalmente dos puntos porcentuales respecto del año pasado, después de haber crecido tras la emergencia sanitaria, de forma que solamente el 40% de la población encuestada de los distintos países afirma que confía la mayor parte de las veces en las noticias que recibe. En España ese porcentaje es notablemente inferior, y se sitúa en el 33%.

Nuestro país en concreto es del grupo donde más ha caído el interés por las noticias desde 2015, año en que el 85% de la ciudadanía reconocía tener mucho, hasta el escaso 51% de 2023. Solamente en Argentina se da una caída de tal magnitud -34 puntos porcentuales-, pues ha pasado de 77% a 43% en el periodo considerado. La proporción de la bajada suele ser más acentuada en naciones políticamente polarizadas, y dentro de ellas, entre los estratos más jóvenes de población.

En general, se observa una bajada del consumo de noticias en todos los mercados que contempla el estudio, lo que implica una tendencia decreciente continuada del acceso a medios tradicionales, como la televisión o la prensa escrita, cuyo lugar no es sustituido por completo por los medios online y las redes sociales. Los usuarios de internet consumen menos cantidad de noticias que antaño.

En España, en los últimos diez años ha descendido con fuerza el consumo de noticias vía televisión (del 72% de la población en 2013 al 56% en 2023) y prensa escrita (del 61% al 25%), y más ligeramente el consumo a través de internet (79% a 74%). En cambio, en ese periodo creció considerablemente la proporción de ciudadanía que se informa vía redes sociales, en concreto, del 28% al 50%. Por otro lado, el 41% de la población española comparte noticias por medios sociales, correo electrónico o mensajería instantánea.

Globalmente, el público se muestra escéptico respecto a los algoritmos de personalización de contenidos en base al comportamiento pasado del usuario: solamente un 30% de media considera que supone un buen método para acceder a las noticias. En España, el porcentaje se sitúa en torno al 36%. Esta burbuja informativa hace que la gente tenga miedo de perderse información relevante, en concreto, el 48% de los usuarios en todos los mercados estudiados se siente de esta manera.

El declive del interés por las noticias y la sustitución de los medios tradicionales por las redes sociales a la hora de informarse, aparte de constituir una amenaza para el presente y el futuro de la profesión y la práctica del periodismo, establecen un caldo de cultivo idóneo para que prolifere la desinformación. Una ciudadanía ajena a la información fiable sometida al rigor periodístico se convierte en susceptible de ser manipulada a través de bulos malintencionados.

La primera línea de defensa en la lucha frente a la desinformación es la propia ciudadanía de un país. De acuerdo con el Eurobarómetro, la población española es consciente del peligro que supone la desinformación: en 2022, el 82% lo considera un problema nacional (frente al 78% de la media europea), y la misma proporción lo percibe como una amenaza para la democracia (en la UE, el 81%). Sin embargo, solamente algo más de la mitad (57%) afirma poder identificar con facilidad una noticia falsa, siendo la media de los países el 65%. No deja de ser una contradicción el que, según la misma fuente, el 83% de los españoles afirma que se topa con frecuencia con fake news, a pesar de que pocos dicen reconocerlas.

 
Google Analytics Alternative