BIBLIOGUÍAS
[El uso inadecuado de la inteligencia artificial] "puede acrecentar las desigualdades en el acceso a la tecnología, perpetuar prejuicios y estereotipos, y excluir a aquellos usuarios menos hábiles en un entorno digital”.
(Gallent, Zapata y Ortego, 2023)
La calidad y relevancia de los datos impacta directamente en la efectividad de los algoritmos, ya que estos dependen de las entradas de datos para generar resultados.
(Gobierno de España, 2023)
Los modelos de lenguaje se entrenan con datos de Internet que no han sido supervisados ni son representativos, por lo que puede tener sesgos sociopolíticos, sexistas y racistas incorporados en sus respuestas. Esto puede resultar en respuestas excluyentes u ofensivas para ciertos individuos o grupos, fenómeno conocido como invisibilización y discriminación algorítmica.
En este post se habla del principio “basura entra basura sale”, que resume la idea de que, “si entran datos de mala calidad, sesgados o inexactos en un sistema o proceso, el resultado también será de mala calidad o impreciso. Por su lado, los algoritmos bien diseñados pueden mejorar el valor de los datos al revelar relaciones ocultas o hacer predicciones” (Gobierno de España, 2023).
Verifica siempre la información que te ofrece la IA.
Las herramientas de IA no deben figurar como autores porque no pueden ser responsables de la exactitud, integridad y originalidad del trabajo.
(ICMJE, 2023)
Tal y como indica Sol Muntañola Abogados (2023) el resultado que genera la IA no es una copia de los datos que la han alimentado previamente, sino que es una obra nueva.
Entonces, ¿una herramienta de inteligencia artificial generativa puede ser autora/coautora de un manuscrito?
El Comité Internacional de Editores de Revistas Médicas [ICMJE] (2022) recomienda estos cuatro criterios para figurar como autor:
Actualmente, la inteligencia artificial generativa no cumple estos criterios, empezando por la de responsabilizarse de los resultados obtenidos.
Recuerda que no se puede atribuir la autoría a una herramienta de IA, por lo que la responsabilidad de la información recaerá en el autor/a.
El plagio es una de las principales formas de deshonestidad académica en todos los niveles educativos.
(Díaz, 2023)
Un uso de la IA es el de crear ensayos a través del parafraseo de la información de la que dispone, adquirida a través del entrenamiento de la herramienta con cantidades enormes de datos, lo que plantea una nueva forma de fraude y plagio para la comunidad académica (Díaz, 2023).
Hasta ahora, se han utilizado herramientas que detectan el porcentaje de similitud en los textos, comparándolos con otros ya disponibles en Internet y en bases de datos. Sin embargo, con el creciente uso de la inteligencia artificial para generar contenido, estas herramientas están adaptándose a esta nueva realidad y así seguir siendo útiles en la detección de similitudes en los textos y posibles casos de plagio.
La Universidad de Navarra cuenta con licencia de uso de Turnitin desde el año 2019. Encontrarás más información de esta herramienta aquí.
Si has obtenido información que ha sido generada por una herramienta de IA, no la hagas pasar por tuya.
La reproducibilidad de la ciencia es la capacidad de repetir un estudio utilizando los mismos datos, métodos, herramientas y condiciones de análisis para conseguir los mismos resultados.
(Salvador, Marco & Arquero, 2023)
Cuando se escribe un prompt en una herramienta de inteligencia artificial generativa, la respuesta que se obtiene es única, es decir, si otro usuario lanza el mismo prompt en la misma herramienta, no recibirá la misma respuesta; por ende, los resultados difieren entre usuarios, por lo que “no se consideran como información registrada, pública y estable, sino el contenido de una conversación privada entre una persona y un sistema artificial” (Universidad de Cantabria, 2024). Por lo tanto, la inteligencia artificial no es reproducible.
Por este motivo se recomienda que cuando se use la inteligencia artificial generativa en un documento, se incluya en algún apartado del texto (introducción, metodología, notas) lo siguiente:
Si se considera necesario, también se puede adjuntar la transcripción literal de la respuesta obtenida en un apéndice o anexo del trabajo.
En conclusión, desde el Servicio de Bibliotecas recomendamos no citar ideas obtenidas a través de las herramientas de inteligencia artificial, porque hacerlo sería contrario a la reproducibilidad de la ciencia, ya que nunca se podría recuperar la idea tal y como la consultó el autor del texto.
Consulta con tu facultad o con tu tutor si está permitido el uso de la IA en los trabajos académicos.
La evolución a un mundo totalmente digitalizado trae consigo una serie de riesgos que pueden vulnerar nuestro derecho a la intimidad.
KPMG (2024)
El uso de datos personales para entrenar sistemas de inteligencia artificial plantea riesgos de privacidad debido a que estos datos pueden incluir información sensible, volviéndose así vulnerables a robos o filtraciones si no se toman medidas de seguridad ante su tratamiento.
Añadido a esto hay que tener en cuenta la falta de transparencia en su recolección, lo que impide que los usuarios sepan qué datos se están recolectando, cómo se usarán y con qué propósito.
Algunos consejos para abordar este aspecto:
Los editores seleccionan a los revisores pares por su profundo conocimiento del tema o los métodos del trabajo que se les pide que evalúen. Esta experiencia es invaluable e irremplazable.
Springer Nature (2024)
Debido al creciente uso de la inteligencia artificial generativa en el ámbito académico, las editoriales científicas también se han posicionado en el uso de esta a través de sus directrices de publicación particulares.
Se han leído las directrices de las editoriales Elsevier, IEEE, Nature, Taylor & Francis y Springer Nature y a continuación se exponen los puntos comunes respecto a este tema:
Comprueba siempre las políticas editoriales antes de mandar un manuscrito para su publicación.
En esta guía podrás encontrar las recomendaciones que hace la Comisión Europea sobre el uso de herramientas de IA en la investigación.
Fuente: Chat GPT (versión 4o). Encontrarás el prompt aquí.