Con voz propia

El fútbol y la vida digital: reivindicar al árbitro

Voiced by Amazon Polly

Txetxu Ausín. Investigador Científico y Director del Instituto de Filosofía del CSIC (Grupo de Ética Aplicada GEA)

Puedes encontrar a Txetxu en X

 

 

Decía Albert Camus, uno de mis héroes filosóficos, todo lo que sé sobre moral y obligaciones del hombre, se lo debo al fútbol. Siguiendo su estela, me voy a permitir utilizar el deporte del fútbol para analizar nuestra vida digital, nuestro estar en las nubes, nunca mejor dicho.

Vivimos en las nubes, digitales, toda nuestra vida, nuestro terreno de juego, es un universo compuesto de datos. Los datos están en todas partes, son ubicuos, de modo que se está produciendo una datificación de la vida, una representación digital de la realidad, donde lo real es lo digital.

Esta transformación de lo real en datos consiste en poner en un formato cuantificado TODO, para que pueda ser medido, registrado y analizado. Es decir, transformarlo todo en información cuantificable, un viejo sueño de la humanidad pero que hoy en día se desarrolla exponencialmente por medio de la digitalización y los sistemas de computación: Tenemos las herramientas (estadísticas y algoritmos) y los equipos (procesadores digitales y de almacenamiento) para manejar una enorme cantidad de datos.

Se cuantifica en datos el espacio y el lugar (geolocalización) y todo lo que nos rodea mediante la incrustación de chips, sensores y módulos de comunicación en todos nuestros objetos cotidianos (lo que se conoce como el internet de las cosas: vehículos, electrodomésticos, domótica, smart cities…).

Nuestro nuevo campo de fútbol, las nubes digitales, es una realidad compuesta esencialmente de información, de datos, lo que autores como Luciano Floridi llaman la infosfera.

Y no solo se datifica el espacio o nuestras interacciones con objetos y el entorno, sino que se transforman en datos todos los aspectos de nuestra vida: las interrelaciones humanas (pensamientos, estados de ánimo, comportamientos, emociones), elementos intangibles de nuestra vida cotidiana que se analizan a través del estudio de nuestra participación en redes sociales; y los actos corporales más esenciales (sueño, actividad física, presión sanguínea, respiración), mediante su monitorización a través de prendas de vestir, relojes inteligentes, prótesis, implantes o medicamentos digitales.

Los nuevos sujetos de este campo de fútbol digital, espectadores y jugadores, estamos caracterizados por un yo-cuantificado, un tipo de individuo sometido al valor supremo del flujo de datos (lo que el historiador Yuval Harari ha llamado dataísmo), una suerte de tecno-religión que estipula que será bueno aquello que contribuya a difundir y profundizar el flujo de información en el universo y malo lo contrario. Se debe maximizar el flujo de datos conectándose cada vez a más medios y produciendo y consumiendo cada vez más información.  Se postula la mano invisible del flujo de datos: Si queremos hacer un mundo mejor, la clave es proporcionar datos. ¿Sobre qué? Sobre todo y en todo momento (24/7). El tiempo libre se vive igual que el tiempo de trabajo (optimización del yo) y está atravesado por las mismas técnicas de evaluación, calificación y aumento de la efectividad. El concepto de rendimiento se extiende a la vida en su totalidad y provoca una desestandarización del trabajo (como ocurre, por ejemplo, en la economía de plataformas).

Nos ha cambiado el terreno de juego, la realidad, y hemos cambiado también los jugadores y espectadores, los sujetos. Sin embargo, en este juego hay faltas, hay problemas, se producen daños.

Podemos hablar de riesgos epistémicos, cuando se confunde en este modelo de big data la explicación causal propia de las ciencias con las correlaciones. Este enfoque promete hacer nuevos descubrimientos científicos a través de correlaciones y regularidades partiendo de enormes cantidades de datos. Las correlaciones pueden ser un indicio importante de causalidad pero también puede haberlas claramente espurias, engañosas y falsas (véase la divertidísima página de Tyler Vigen: tylervigen.com/spurious-correlations).

Otro problema epistémico, pero con enormes consecuencias prácticas, son los sesgos. Un sesgo es un prejuicio, una manera distorsionada de percibir la realidad, una predisposición normalmente negativa hacia algo o hacia alguien.  Por eso los sesgos nos alejan de lo que es verdad (nos confunden) y nos alejan también de la justicia (porque provocan discriminación).

Los datos con los que se entrenan y aprenden los sistemas de inteligencia artificial están muchas veces cargados de prejuicios y estereotipos negativos: por razón de edad, de cultura, de sexo, de nivel económico… Y además, estos sistemas se pueden diseñar beneficiando a determinados grupos de personas y perjudicando a otros. La tecnología no es neutral y los ejemplos de discriminaciones debidas a los algoritmos son cada vez más numerosos y conocidos, como ha destacado la matemática Cathy O’Neil en Armas de destrucción matemática.

Añádase a lo anterior los riesgos sobre la privacidad y la intimidad de las personas, las amenazas de manipulación y merma de la autonomía, o los peligros de las políticas predictivas basadas en datos (al estilo de Minority Report), donde ya no somos juzgados en función de nuestras acciones reales, sino sobre la base de lo que los datos indiquen que serán nuestras acciones probables (enfermedades, conductas, accidentes de tráfico…).

Podemos terminar el capítulo de faltas en el juego con el enorme impacto medioambiental de esta nueva realidad. Aunque se nos suele presentar como una suerte de economía desmaterializada, la fabricación, desarrollo y mantenimiento de productos electrónicos y redes digitales supera con creces a otros bienes de consumo. La extracción de materias primas esenciales, las enormes cantidades de energía y agua necesarias para los centros de computación y almacenamiento de datos en la nube, con las consiguientes emisiones de CO2, los residuos y basura digitales, y la explotación de trabajadores precarios tanto para la extracción de minerales como para el aprendizaje de los sistemas artificiales, tienen un elevadísimo impacto medioambiental, social y geopolítico.

Con todo este panorama, ¿qué es lo que falta? Faltan los árbitros y las reglas, carecemos de un poder civil en las nubes. Más allá de la reciente aprobación del Reglamento Europeo sobre Inteligencia Artificial (AI-Act), que ya veremos cómo se materializa, este terreno de juego de las nubes digitales adolece de una separación de poderes: no hay legislativo (una elección de representantes que podrían legislar), ni judicial (ciberjusticia), ni ejecutivo (porque existe una concentración descentralizada en manos de grandes compañías privadas, de los grandes magnates tecnológicos, cual directivos sin control de enormes clubes de fútbol).

La like-democracy es una ficción de democracia cuando no existe una división de poderes en las nubes digitales. Somos súbditos y no ciudadanos, sometidos al dilema del acepto/no acepto ante las condiciones que imponen las grandes compañías que establecen las reglas de juego en el ecosistema digital (compañías eléctricas, telefónicas, informáticas, televisivas, de videojuegos, de dinero electrónico).

Urge transitar desde esta nube feudal (autoritaria, centralizada, opaca, dirigida, vertical), la internet de los señores del aire, en afortunada expresión de Javier Echeverría, hacia una nube prosocial (democrática, distribuida, policéntrica, abierta, colaborativa, emancipadora, horizontal), lo que yo llamaría la internet de las pequeñas cosas y los pequeños contribuidores. Para ello, necesitamos superar nuestra minoría de edad tecnológica y atrevernos a pensar las nubes digitales por nosotros mismos, a fin de alcanzar un pacto tecno-social mediante una nueva Ilustración digital. Necesitamos una aproximación política a las nubes, más allá del foco sobre el código y los algoritmos.

El fútbol, sin reglas, sin mediaciones, con espectadores y jugadores apáticos, inertes y controlados, sería un deporte horrible, plagado de trampas y juego sucio, y sometido al imperio de los dueños de los clubes privados. Reivindiquemos a los árbitros.

 

Número 17, 2024
Acción social

Inteligencia Artificial: una herramienta clave en la lucha contra la pobreza y la exclusión social

Raúl Flores Martos, director técnico de la Fundación FOESSA

Daniel Rodríguez de Blas, miembro del comité técnico de la Fundación FOESSA

 

Introducción a la Inteligencia Artificial y su impacto

La Inteligencia Artificial (IA) ha emergido como una fuerza dominante en el panorama tecnológico actual. Aunque sus fundamentos teóricos se remontan al siglo XX, cuando pioneros como Alan Turing comenzaron a explorar la idea de máquinas capaces de pensar, ha sido en las últimas décadas cuando la IA ha experimentado un crecimiento exponencial y ha empezado a integrarse profundamente en nuestras vidas. Desde asistentes virtuales en nuestros hogares hasta algoritmos que personalizan la publicidad en nuestras redes sociales, la IA está en todas partes moldeando nuestras interacciones, decisiones y comportamientos.

Esta tecnología está revolucionando una amplia gama de sectores. En la medicina, la IA facilita diagnósticos precisos y tratamientos personalizados; en la agricultura, optimiza la producción y reduce el desperdicio; en la educación, ofrece experiencias de aprendizaje adaptativas y accesibles. Cada avance parece confirmar que estamos en el umbral de una transformación sin precedentes donde la IA no solo optimiza procesos existentes, sino que también abre la puerta a innovaciones que antes eran inimaginables.

 

La IA como herramienta para mitigar la pobreza y la exclusión

La IA se presenta como una herramienta poderosa en la lucha contra la pobreza y la exclusión social. Al aprovechar las capacidades de la IA para analizar datos y prever tendencias, esta tecnología puede resultar de gran utilidad para identificar patrones y ofrecer soluciones innovadoras que aborden tanto las causas profundas como los síntomas inmediatos de estos problemas.

 

Predicción y prevención: anticiparse a la pobreza

Una de las mayores fortalezas de la IA es su capacidad para analizar grandes volúmenes de datos y descubrir patrones que no son evidentes a simple vista. En el contexto de la pobreza y la exclusión, la IA puede utilizarse para identificar patrones a varios niveles que pueden resultar útiles para mitigar realidades de vulnerabilidad.

A nivel macro, la IA puede analizar datos económicos y sociales para anticipar eventos que incrementan la pobreza tales como recesiones económicas, aumentos en el desempleo o desastres naturales. Por ejemplo, el análisis combinado de datos de empleo e ingresos, de precios de bienes básicos y de tasas de inflación puede ayudar a prever periodos de recesión o de dificultades para el acceso a bienes y servicios de determinados colectivos. Esto permitiría tanto a administraciones públicas como a organizaciones del tercer sector a diseñar políticas y respuestas adecuadas antes de que los problemas se agraven.

A nivel individual, la IA puede identificar a personas y familias en riesgo de caer en la pobreza antes de que esto ocurra. Algoritmos de aprendizaje automático pueden analizar datos sobre ingresos, gastos, niveles de deuda y otros factores personales para predecir quiénes podrían necesitar asistencia y en qué momento. Por ejemplo, ya se han desarrollado sistemas de IA que pueden predecir el riesgo de desahucio con semanas de antelación, lo que permite a las autoridades intervenir y ofrecer apoyo antes de que las familias pierdan sus hogares.

 

Mejora de la eficiencia en los programas de ayuda

La predicción y prevención de la pobreza y exclusión serían elementos deseables para evitar que familias cayesen en situaciones críticas, pero la IA también puede suponer un buen apoyo para mejorar las medidas e intervenciones con las familias que ya se encuentran en situación de pobreza. La eficiencia es clave cuando se trata de distribuir recursos limitados para combatir la pobreza y la IA puede desempeñar un papel crucial en la optimización de los programas de ayuda, asegurando que los recursos lleguen a quienes más los necesitan.

En nuestro país existen muchos tipos de intervenciones destinadas a paliar las situaciones de pobreza y exclusión. Algunos actúan o pretenden actuar con la intención de resolver la carestía o insuficiencia de ingresos como los programas de empleo, el Ingreso Mínimo Vital o las rentas de inserción autonómicas. Otros en cambio buscan mejorar las condiciones de vida de las personas desde la reducción del gasto en partidas fundamentales como los programas de acceso a vivienda. Los sistemas de IA pueden ofrecer modelos de medición del impacto de todas estas intervenciones y programas de forma individual o incluso de manera combinada de tal forma que se gane en eficiencia y eficacia.

Por otro lado, la IA también permite la personalización de los acompañamientos adaptando los programas a las necesidades específicas de las personas. Por ejemplo, plataformas de IA pueden recomendar qué tipo de apoyo (financiero, educativo, laboral, de salud, etc.) es más apropiado para cada individuo o familia basándose en sus circunstancias particulares. Esto asegura que cada persona acompañada reciba el tipo de ayuda específica que le permitirá mejorar su situación.

Por tanto, la aplicación de la IA en la lucha contra la pobreza y la exclusión social en nuestro país puede ofrecer un potencial significativo para mejorar la calidad de vida de las personas más vulnerables. Al permitir una predicción precisa y una respuesta proactiva a las crisis y al optimizar la distribución y efectividad de los recursos, la IA podría transformar la forma en que como sociedad estamos abordando estos desafíos complejos.

 

IA y empleo: luces y sombras en el futuro del trabajo

La Inteligencia Artificial (IA) está transformando el mundo del trabajo a una velocidad sin precedentes, ofreciendo tanto oportunidades como desafíos. En este epígrafe, exploraremos las luces y sombras de esta revolución tecnológica en el ámbito del empleo, analizando cómo la IA está creando nuevos puestos de trabajo y redefiniendo los existentes, mientras que también plantea amenazas de desplazamiento y reubicación de empleos. Al considerar tanto los beneficios como los riesgos, es crucial reflexionar sobre el impacto de la IA en diferentes grupos sociales y la necesidad de políticas que mitiguen los efectos adversos.

A pesar de las preocupaciones sobre la automatización, aquellas personas que ven la botella medio llena en este tema hacen referencia a dos elementos clave: la generación de oportunidades laborales y el empoderamiento de determinados perfiles que pueden valerse de la IA para liberarse de tareas repetitivas. Con respecto al primer argumento, parece obvio que a medida que las empresas adoptan tecnologías avanzadas, surgen necesidades de habilidades específicas que impulsan la creación de empleos en sectores sobre todo vinculados a la tecnología y al manejo de datos. Es segundo gran argumento que se esgrime para defender la IA es que, además de crear nuevos empleos, la IA está liberando a los trabajadores existentes de cargas poco creativas o satisfactorias. Es decir, al automatizar tareas repetitivas y sin valor añadido, estos perfiles liberan una buena parte de su tiempo, permitiéndoles así que se concentren en trabajos más creativos y de alto valor.

Sin embargo, junto con la creación de oportunidades, la IA también plantea serios desafíos. La automatización a buen seguro desplazará a trabajadores y trabajadoras, especialmente en roles rutinarios y repetitivos, eliminando buena parte de estos puestos de empleo.

El debate está abierto y son múltiples las estimaciones optimistas que dicen que la IA terminará generando más empleo del que destruya, pero también se reiteran las estimaciones en el sentido contrario que dicen que se destruirá más empleo del que se cree. Lo que parece evidente es que el empleo se trasformará y, más allá del saldo final, se generarán empleos en unos sectores y/o territorios y se perderán en otros. Lo que parece claro es que habrá perdedores, como en todas las crisis y transformaciones, y habrá que pensar y diseñar itinerarios de inclusión para aquellas personas a las que la moneda les salga cruz. Un enfoque proactivo de políticas e intervenciones ayudaría a mitigar los riesgos y aprovechar los beneficios.

 

Retos y Desafíos de la IA

1. Sesgos algorítmicos y su impacto

Los sesgos algorítmicos representan uno de los mayores desafíos en la implementación justa y equitativa de la IA. Estos sesgos pueden perpetuar y amplificar desigualdades existentes, afectando a individuos y grupos vulnerables.

Por ejemplo, los sistemas de IA que diagnostican enfermedades de la piel han sido criticados por su menor precisión en personas con tonos de piel más oscuros debido a conjuntos de datos de entrenamiento que contienen principalmente imágenes de personas con piel clara. De manera similar, el software COMPAS utilizado en los tribunales de EE. UU. tiende a predecir con mayor probabilidad la reincidencia de personas afroamericanas en comparación con personas blancas, reflejando y reforzando prejuicios raciales preexistentes en el sistema de justicia penal.

Los sesgos de interacción en redes sociales pueden llevar a la creación de cámaras de eco donde se refuerzan las opiniones existentes y se excluyen otras perspectivas. Abordar estos sesgos mediante la implementación de estrategias de diseño y evaluación éticas es fundamental para asegurar que la IA sirva a la sociedad de manera equitativa.

2. El riesgo de la concentración de la IA

El desarrollo y la implementación de la IA requieren recursos significativos, incluyendo acceso a grandes cantidades de datos, capacidades de procesamiento computacional avanzadas y talento especializado. Actualmente, solo un número limitado de empresas tecnológicas poseen estos recursos a una escala tal que les permite liderar el campo de la IA.

La concentración del poder de la IA en manos de unas pocas corporaciones puede aumentar la brecha de ingresos entre las empresas tecnológicas y otras industrias, situándolas en una posición privilegiada para influir en los marcos regulatorios y en las políticas económicas. Además, si el acceso a tecnologías avanzadas se limita a quienes pueden permitírselas, las desigualdades en el acceso a servicios críticos como la educación y la atención médica pueden aumentar.

3. Gobernanza ética y políticas públicas

Para que la IA sea beneficiosa y equitativa, es esencial una gobernanza ética y políticas públicas que aborden sus impactos. La adquisición y el desarrollo de las nuevas herramientas para la humanidad encuentran su valor y su riesgo en el para qué se utilicen y en el cómo se implementen. Por ello los sistemas de gobernanza de la esfera pública, especialmente de las administraciones estatales y supra estatales, tienen que asumir un papel crucial en la orientación de esta nueva herramienta y en la generación de políticas públicas que acompañen a la inteligencia artificial en su servicio a la humanidad.

En este sentido, la UNESCO[1] enfatiza la necesidad de una brújula ética en la IA, recomendando marcos regulatorios y medidas que promuevan la justicia, la equidad y la inclusión.

 

Conclusión

La IA representa una de las innovaciones más potentes y transformadoras de nuestra era, con el potencial de definir el curso de nuestro futuro colectivo. Para que esta tecnología cumpla verdaderamente el sueño de mejorar nuestra sociedad, es crucial diseñarla y desplegarla basándonos en una visión de futuro que refleje nuestros valores y aspiraciones más elevados, en lugar de simplemente replicar los patrones del pasado. Crear sistemas de IA que miren hacia adelante nos daría la oportunidad de reconfigurar nuestras estructuras sociales y económicas para beneficiar a todos, no solo a unos pocos. Este es el reto y la oportunidad que tenemos ante nosotros, y la visión de un futuro mejor debe guiarnos en cada paso del camino.

[1] UNESCO, Recomendación sobre la ética de la inteligencia artificial. Paris, 2022.

 

Número 17, 2024
Con voz propia

La construcción de sentido

Voiced by Amazon Polly

Joan Subirats

Catedrático Ciencia Política UAB

 

 

La gran sacudida generada por la pandemia global ha acelerado procesos de cambio que ya se habían iniciado, alterando ritmos de adaptación y transición. En algunos casos, ha sido muy visible (teletrabajo, compra on line, cierre de comercios en decadencia…). En otros, la restructuración en marcha se ha consolidado e incrementado (precariedad y alto ritmo de sustitución laboral, automatización de procesos, uso generalizado del big data…). Pierde peso el factor humano al devaluarse su contribución a los procesos productivos.

En los próximos años, uno de los elementos clave en ese proceso de transformación será la capacidad de los sistemas políticos de mantener la significación de la contribución humana en las dinámicas de inteligencia artificial, machine learning y automatización generalizada en las que estamos ya entrando de manera acelerada. Si solo hablamos de innovación y no de progreso, de desarrollo humano, de mejora del bienestar colectivo, estamos dejando de lado el factor humano, la construcción de sentido que toda innovación debería contener para no ser solo algo que mejore cuota de mercado o rentabilidad de un fondo de inversión.

La capacidad sustitutoria de la Inteligencia Artificial aplicada a procesos de todo tipo parece no tener límites. Más allá de los trabajos de bajo valor añadido, de carácter mecánico o repetitivo, lo significativo es su impacto en procesos de notable complejidad como, por ejemplo, los diagnósticos médicos, los procesos de asesoría legal o labores que requieren grados de sofisticación que parecían muy alejados de lógicas maquinales, como los cuidados a personas mayores o enfermos. La cuestión no está tanto en qué trabajos están a salvo de las dinámicas de sustitución puestas en marcha, sino más bien de cuál es la especificidad de la aportación humana en este nuevo escenario. Las máquinas tomarán decisiones basadas en experiencias anteriores, en su capacidad de procesar de manera mucho más rápida que cualquier cerebro humano las alternativas posibles de solución y en su capacidad de aprendizaje y de contraste con lo que vaya aconteciendo, variando así sus puntos de partida. Pero, muchos de estos procesos concluyen en decisiones a tomar que deberían formar parte de lo que se entienda como correcto, como formando parte del sentido comúnmente aceptado en una comunidad concreta y en un momento dado.

Lo que, por tanto, resulta clave es entender si la dinámica de relación persona-máquina es complementaria o existe una lógica de subordinación. La complementariedad puede enriquecer las tareas a realizar y, al mismo tiempo, puede hacer más difícil deslocalizar la creatividad e innovación a otro lugar. Hemos de ser conscientes que estamos asistiendo en vivo y en directo a un cambio de estatuto de las tecnologías digitales. Los avances en inteligencia artificial demuestran la creciente capacidad de afrontar situaciones y problemas que van más allá de nuestra tradicional relación con las máquinas. Estamos entrando en situaciones en las que los sistemas computacionales más avanzados son capaces de decirnos qué es lo correcto, cuál es la verdad. Y ello no es casual, sino que parte de los criterios de construcción del nuevo conglomerado maquinal: que se parezca a los humanos en su razonar, analizando alternativas, contrastando hipótesis, estableciendo diagnósticos, escogiendo la mejor opción a partir de los criterios de valor previamente elegidos. Y, a partir de todo lo cual, su enorme capacidad de cálculo y su capacidad de aprendizaje le permitirán ir más allá de lo que sus creadores habían previsto, sin que ni ellos mismos sean capaces de explicar ni la razón ni el itinerario por el cual se ha llegado a una decisión final.

Las potentes facultades de las máquinas les permiten desde sugerir conductas, hasta decidir entre alternativas u obligar a que la conducta de las personas se adapte a lo que se entiende como correcto (como ya sucede en ciertos sectores donde los gestos concretos a hacer vienen predeterminados y son controlados de manera precisa). Ese establecimiento de las conductas correctas tienen además el añadido de obedecer a criterios básicamente utilitaristas, destinados a conseguir mayor eficiencia en los procesos específicos.

La dinámica de aceleración constante que tiene la vida contemporánea viene determinada por esa lógica de progreso indefinido, de destrucción creativa, que es más que nunca la lógica del capitalismo de la innovación tecnológica, conservando la dinámica hype (dirigida a alimentar un consumo contante basado en expectativas renovadas) y manteniendo las desigualdades sociales que se vayan generando fuera del campo de visión y de interés de la innovación. En esa lógica, la dinámica impuesta por la tecnología de la inteligencia artificial reduce al mínimo el tiempo humano de la comprensión y de la reflexión, del aprendizaje individual y colectivo, poniendo en duda, en definitiva, la capacidad de decidir libremente.

Lo que necesitamos reivindicar de la inteligencia humana colectiva no es únicamente la posibilidad de llegar al máximo de capacidad de raciocinio a partir de unos parámetros predeterminados y de un constante desafío consigo mismo. Lo que resulta insustituible es precisamente la pluralidad de subjetividades, la contradicción entre distintas perspectivas, distintos sistemas de valores, distintas inteligencias. Es en ese quehacer colectivo y plural desde dónde surge la capacidad de superar algo tan humano como la incertidumbre y la búsqueda de soluciones comúnmente aceptadas. Dando un sentido a lo que se decide y se hace. Es pues en la construcción de sentido dónde tenemos gran parte de los dilemas políticos y democráticos de esta nueva época.

 

Número 8, 2021