El uso de algoritmos y de otras herramientas de la inteligencia artificial (IA), incluida la infancia y la adolescencia, ya no es una hipótesis y está pasando, lento pero seguro, a ser una demostrable realidad. Aún siendo la infancia actual “nacidos digitales”, sorprende que las escasas normativas existentes sobre la IA no profundizan en las necesidades específicas de la infancia y la adolescencia.

Los algoritmos son secuencias ordenadas de instrucciones diseñadas para realizar tareas específicas, como clasificar datos o tomar decisiones basados en la información disponible de ese tema.

Foch y Villaronya (2023) ya expusieron que se ha creado un ecosistema digital en el que la infancia son usuarios y hacen recolección de datos, lo que les convierte en sujetos expuestos a manipulación y ser víctimas de un poder que emplea armas muy desiguales.

La IA es creada por humanos y refleja sus valores y creencias (Williams et al, 2019), estos principios no siempre son visibles de forma explícita, ni siquiera garantizan que su aplicación sea ética o equitativa, tal y como avisa UNESCO desde el año 2021.

La IA se está difundiendo en el mundo educativo porque existen trabajos donde se defiende que se optimiza la enseñanza (Gianini, 2023) y en otros trabajos se expone que defiende la relación alumno-profesor (Jean y Lee, 2023) y sobre todo tiene una gran utilidad en la alfabetización temprana (Yang, 2022). Se sabe que la IA permite la creación de contenidos educativos personalizados y automatizados (Dÿkstra, 2022) crean textos, imágenes y simulaciones que transforman el aprendizaje (Williams et al, 2011). Pero no todo es favorable, puesto que desde la IA se puede tener acceso a contenidos inapropiados, como el hiperconsumo de pornografía con todas sus consecuencias de desinformación sexual (Su y Yang, 2022, 2023). Es decir, la IA es un arma de doble filo en la educación infantil, tal y como previenen Chen y Li (2023), pero bien orientado este uso podría cambiar la relación entre la infancia y la tecnología.

Existen muchas diferencias entre los marcos regulatorios a nivel internacional. Por ello hay que resaltar la recomendación de Wang (2023) en la necesidad inexcusable de buscar un marco común que responda a las necesidades cognitivas, emocionales y sociales de la infancia.

Existe unas exigencias éticas básicas mínimas que, de forma operativa se podrían formular como: equidad, sostenibilidad, justicia social como: equidad, sostenibilidad, justicia social como: equidad, sostenibilidad y justicia social que en la infancia deben integrarse en respetar la equidad educativa, promover la protección de la infancia y la justicia social al proveer un entorno educativo seguro, inclusivo y centrado en el niño.

Las tendencias internacionales intentan definir estándares de respeto a la privacidad, equidad, seguridad, transparencia y uso responsable de la IA en la infancia. equidad, seguridad, transparencia y uso responsable de la IA en la infancia. Pero para conseguir estas metas, la IA tiene unos desafíos a superar: la reproducción de sesgos y prejuicios (Fyeld, 2020; Navigli, 2003); evitar la manipulación intelectual; superar los riesgos para y la protección de datos; la falta de responsabilidad legal (Hooper, Livingston, 2002; Henderson, 2023) ya que debe asumirse esa responsabilidad por los presuntos daños que pudieran causar la utilización de algoritmos; el acceso gratuito a la IA disminuye la brecha digital y avanza en la dirección de la justicia social.

Por todo lo anterior la regulación de la IA debiera guiarse por la Convención de los Derechos de la Infancia (Artículo 12 de la participación, Artículo 16 de la privacidad y Artículos 19, 34 y 36 sobre la protección de los datos personales control parental en la infancia y ejercicio de la protección a la explotación) y la Declaración Universal de los Derechos Humanos (Artículo 25).

Todo lo expuesto con anterioridad, previene para contemplar, de forma activa, la formulación de políticas adecuadas de protección de la infancia. Los algoritmos basados en daos históricos pueden reproducir sesgos de género, raza, clase social, libertades sexuales o sociales acerca de la orientación o identidad sexual y originar casos de discriminación en plataformas de IA (Wang, 2022).

También cabe el peligro de la manipulación emocional, ya que los algoritmos pueden modificar comportamientos e incrementar la vulnerabilidad a estrategias de marketing (Pomery, 2022).

El Consejo de Europa advierte sobre los peligros del uso de la IA en la educación, por el posible impacto negativo que pudieran tener en los derechos humanos, la democracia y el estado de derecho (Holmes, 2022).

Según UNICEF, el respeto a la equidad y la justicia social en la utilización de IA, requieren la participación de los niños, las niñas y sus familias en las decisiones acerca de la privacidad y la seguridad en el uso de la IA por parte de la infancia y la adolescencia.

Por lo tanto, se precisan unos principios éticos claros:
  1. Centrar el diseño de los algoritmos para el bienestar, el desarrollo y la participación de los niños, niñas y adolescentes.
  2. Transparencia y explicabilidad, tanto la infancia como sus familias deben comprender y controlar las decisiones automatizadas.
  3. Privacidad y seguridad, tendiendo a que la recolección de datos sea mínima, lo que facilita la protección de la información personal.
  4. Accesibilidad universal, facilitando el acceso equitativo a las plataformas.
Según el marco 3A2S (Luo et al, 2024; Xi y Li, 2020) la ética del uso de los algoritmos y de la IA en la infancia y la adolescencia debe incluir cinco dimensiones: Accesibilidad, asequibilidad, responsabilidad, sostenibilidad y justicia social.

Para que estos principios éticos sean eficaces esa ética debe iniciarse desde el diseño de los algoritmos, para lo que se integrarán y adaptarán los principios básicos de la bioética: Principio de autonomía, por el que los indivíduos toman sus decisiones de una manera informada; principio de beneficencia, por el que se pretende hacer el bien ocasionando un mínimo de daño; principio de no maleficiencia, por el que se evita causar daño de forma activa; principio de justicia, por el que existe un compromiso de ser equitativos y no discriminatorios, a ellos se añade el principio de transparencia, por el que la toma de decisiones algorítmicas deben ser explicables y auditables.
La UNESCO lo resume en: Protección de datos y de la privacidad; prohibición del puntaje social y la vigilancia masiva; ayuda para monitorizar y evaluar los algoritmos; protección del medio ambiente; equidad de género; transparencia y explicabilidad.

Estos planteamientos éticos representan dilemas no resueltos en el uso/abuso de los algoritmos y la IA, incluso en la infancia. A pesar de las llamadas de atención se llegó tarde a regular el uso/abuso de teléfonos móviles de alta gama en la infancia y la adolescencia, con consecuencias no deseadas: la adicción comportamental al dispositivo, el incremento del acoso/ciberacoso y el hiperconsumo de pornografía en la infancia y la adolescencia con todas sus implicaciones en la distorsión de la conducta sexual en la adolescencia. Son problemas reales a los que se ha llegado tarde, mal y nunca.

En el caso de los algoritmos y la IA en la infancia y la adolescencia ¿se está llegando tarde? ¿será confirmada, una vez más, que los humanos somos los animales que caemos ante obstáculos similares de forma repetida y reiterada? Desde aquí queda dicho y expuesto el problema…