Ir al contenido principal

BIBLIOGUÍAS

Inteligencia Artificial Generativa: Aspectos éticos

En esta biblioguía encontrarás información sobre el uso de la inteligencia artificial generativa en el ámbito académico

 [El uso inadecuado de la inteligencia artificial] "puede acrecentar las desigualdades en el acceso a la tecnología, perpetuar prejuicios y estereotipos, y excluir a aquellos usuarios menos hábiles en un entorno digital”.
(Gallent, Zapata y Ortego, 2023)

Dilemas éticos

La calidad y relevancia de los datos impacta directamente en la efectividad de los algoritmos, ya que estos dependen de las entradas de datos para generar resultados.

(Gobierno de España, 2023)

Los modelos de lenguaje se entrenan con datos de Internet que no han sido supervisados ni son representativos, por lo que puede tener sesgos sociopolíticos, sexistas y racistas incorporados en sus respuestas. Esto puede resultar en respuestas excluyentes u ofensivas para ciertos individuos o grupos, fenómeno conocido como invisibilización y discriminación algorítmica.
En este post se habla del principio “basura entra basura sale”, que resume la idea de que, “si entran datos de mala calidad, sesgados o inexactos en un sistema o proceso, el resultado también será de mala calidad o impreciso. Por su lado, los algoritmos bien diseñados pueden mejorar el valor de los datos al revelar relaciones ocultas o hacer predicciones” (Gobierno de España, 2023).

 Verifica siempre la información que te ofrece la IA.

 Las herramientas de IA no deben figurar como autores porque no pueden ser responsables de la exactitud, integridad y originalidad del trabajo.

(ICMJE, 2023)

Tal y como indica Sol Muntañola Abogados (2023) el resultado que genera la IA no es una copia de los datos que la han alimentado previamente, sino que es una obra nueva. 
Entonces, ¿una herramienta de inteligencia artificial generativa puede ser autora/coautora de un manuscrito? 
El Comité Internacional de Editores de Revistas Médicas [ICMJE] (2022) recomienda estos cuatro criterios para figurar como autor

  1. Haber contribuido sustancialmente a la concepción o al diseño del trabajo o a la adquisición, análisis e interpretación de los datos. 
  2. Haber redactado el artículo o haberlo revisado críticamente añadiendo contenido intelectual importante. 
  3. Haber dado la aprobación final a la versión que se publicará. 
  4. Haber aceptado responsabilizarse de todos los aspectos del trabajo, garantizando que las cuestiones relativas a la exactitud o a la integridad de cualquier parte del trabajo se investiguen y se resuelvan adecuadamente. 

Actualmente, la inteligencia artificial generativa no cumple estos criterios, empezando por la de responsabilizarse de los resultados obtenidos.

 Recuerda que no se puede atribuir la autoría a una herramienta de IA, por lo que la responsabilidad de la información recaerá en el autor/a.

 El plagio es una de las principales formas de deshonestidad académica en todos los niveles educativos.

(Díaz, 2023)

Un uso de la IA es el de crear ensayos a través del parafraseo de la información de la que dispone, adquirida a través del entrenamiento de la herramienta con cantidades enormes de datos, lo que plantea una nueva forma de fraude y plagio para la comunidad académica (Díaz, 2023).

Hasta ahora, se han utilizado herramientas que detectan el porcentaje de similitud en los textos, comparándolos con otros ya disponibles en Internet y en bases de datos. Sin embargo, con el creciente uso de la inteligencia artificial para generar contenido, estas herramientas están adaptándose a esta nueva realidad y así seguir siendo útiles en la detección de similitudes en los textos y posibles casos de plagio.

La Universidad de Navarra cuenta con licencia de uso de Turnitin desde el año 2019. Encontrarás más información de esta herramienta aquí.

 Si has obtenido información que ha sido generada por una herramienta de IA, no la hagas pasar por tuya.

 La reproducibilidad de la ciencia es la capacidad de repetir un estudio utilizando los mismos datos, métodos, herramientas y condiciones de análisis para conseguir los mismos resultados.

(Salvador, Marco & Arquero, 2023)

Cuando se escribe un prompt en una herramienta de inteligencia artificial generativa, la respuesta que se obtiene es única, es decir, si otro usuario lanza el mismo prompt en la misma herramienta, no recibirá la misma respuesta; por ende, los resultados difieren entre usuarios, por lo que “no se consideran como información registrada, pública y estable, sino el contenido de una conversación privada entre una persona y un sistema artificial” (Universidad de Cantabria, 2024). Por lo tanto, la inteligencia artificial no es reproducible.
Por este motivo se recomienda que cuando se use la inteligencia artificial generativa en un documento, se incluya en algún apartado del texto (introducción, metodología, notas) lo siguiente:

  • El nombre de la herramienta de IAG utilizada. 
  • La versión que se utiliza.
  • Fecha de la consulta. 
  • Prompt utilizado.

Si se considera necesario, también se puede adjuntar la transcripción literal de la respuesta obtenida en un apéndice o anexo del trabajo.

En conclusión, desde el Servicio de Bibliotecas recomendamos no citar ideas obtenidas a través de las herramientas de inteligencia artificial, porque hacerlo sería contrario a la reproducibilidad de la ciencia, ya que nunca se podría recuperar la idea tal y como la consultó el autor del texto.

 Consulta con tu facultad o con tu tutor si está permitido el uso de la IA en los trabajos académicos.

 La evolución a un mundo totalmente digitalizado trae consigo una serie de riesgos que pueden vulnerar nuestro derecho a la intimidad.

KPMG (2024)

El uso de datos personales para entrenar sistemas de inteligencia artificial plantea riesgos de privacidad debido a que estos datos pueden incluir información sensible, volviéndose así vulnerables a robos o filtraciones si no se toman medidas de seguridad ante su tratamiento.

Añadido a esto hay que tener en cuenta la falta de transparencia en su recolección, lo que impide que los usuarios sepan qué datos se están recolectando, cómo se usarán y con qué propósito.

 Algunos consejos para abordar este aspecto:

  • Recolecta solo los datos necesarios para tu investigación y almacénalos en sistemas seguros (cifrado).
  • Aplica técnicas de anonimización y seudonimización para que los datos no puedan ser vinculados directamente con individuos específicos.
  • Antes de recolectar cualquier dato, informa claramente a los participantes sobre cómo se utilizarán sus datos, los beneficios y riesgos, y sus derechos para acceder, modificar o eliminar su información.
  • No introduzcas datos de investigación o estudios no publicados que contengan datos confidenciales o clasificados, o información personal en aplicaciones de inteligencia artificial. Ten en cuenta el riesgo de que esa información se convierta en parte del entrenamiento de los modelos de inteligencia artificial.
  • Restringe el acceso a los datos a solo aquellas personas que realmente lo necesiten para realizar su trabajo.

  Los editores seleccionan a los revisores pares por su profundo conocimiento del tema o los métodos del trabajo que se les pide que evalúen. Esta experiencia es invaluable e irremplazable.

Springer Nature (2024)

Debido al creciente uso de la inteligencia artificial generativa en el ámbito académico, las editoriales científicas también se han posicionado en el uso de esta a través de sus directrices de publicación particulares.

Se han leído las directrices de las editoriales Elsevier, IEEE, Nature, Taylor & Francis y Springer Nature y a continuación se exponen los puntos comunes respecto a este tema:

  • Autoría. Según recogen las cinco editoriales consultadas, la IA no puede considerarse autora o coautora. Por ello, la autoría y responsabilidad de los trabajos deben recaer exclusivamente en humanos y no en máquinas.
  • Transparencia. Todas las editoriales enfatizan la necesidad de transparencia en los trabajos, es decir, que los autores divulguen si han hecho uso de alguna herramienta de IA en sus manuscritos, ya sea en la sección de metodología, agradecimientos o en una sección alternativa apropiada.
  • Límites de uso. Las cinco editoriales coinciden en la prohibición de crear o modificar imágenes, figuras o datos utilizando herramientas de IA.
  • Adaptabilidad. Las editoriales consultadas están comprometidas a revisar y actualizar sus políticas regularmente para adaptarse a los avances en IA. 

Comprueba siempre las políticas editoriales antes de mandar un manuscrito para su publicación.

 En esta guía podrás encontrar las recomendaciones que hace la Comisión Europea sobre el uso de herramientas de IA en la investigación.

 

Robot leyendo un libro en una biblioteca

Fuente: Chat GPT (versión 4o). Encontrarás el prompt aquí.

Document