Política de IA

Protocolo sobre el uso de Inteligencia Artificial (IA)

En el supuesto de que se empleen sistemas de inteligencia artificial en cualquier fase del estudio, se exige a los firmantes consignarlo de forma explícita mediante una nota marginal al comienzo del manuscrito, detallando los apartados específicos donde se recurrió a dicha tecnología. Esta disposición busca ilustrar a los lectores sobre la utilización de estas herramientas, garantizando una transparencia absoluta y una interpretación precisa de su alcance en la investigación.

Basándose en la Declaración de Heredia, que regula el uso pertinente de la IA en la gestión editorial, la revista establece la siguiente normativa:

Autoría e Integridad Humana

Primacía del pensamiento humano: El desarrollo de la investigación y la redacción académica constituyen ejercicios intelectuales complejos que demandan la formulación de interrogantes, el examen crítico de datos y la estructuración de argumentos, procesos que no pueden ser suplantados por la IA.

Responsabilidad legal y moral: Solo el autor posee la aptitud para gestionar y responsabilizarse éticamente por los hallazgos presentados; por consiguiente, no se reconoce autoría a las inteligencias artificiales generativas (IAG), en concordancia con los estatutos del COPE.

Instrumento de soporte: La IAG debe interpretarse como un recurso auxiliar y nunca como un sustituto de la facultad analítica del investigador.

Transparencia en el reporte: El autor debe pormenorizar el modelo de lenguaje (LLM) utilizado, las tareas desempeñadas (análisis, recolección o edición), la interconexión entre sistemas y el nivel de supervisión humana aplicado.

Normativa de citación: Es imperativo referenciar el modelo empleado siguiendo estrictamente las Normas APA 7.ª edición, incorporando esta declaración en la metodología o en los agradecimientos.

Veracidad de los contenidos: El uso de estas herramientas no libera a los autores de su compromiso con la calidad y autenticidad del texto. La creación de citas apócrifas o la distorsión de datos se tipificará como una transgresión grave a la integridad científica.

Procesos de Evaluación (Peer Review)

Juicio experto: Aunque la IA puede auxiliar en la detección de falencias formales, la validación teórica y metodológica es una competencia intrínsecamente humana.

Deberes del evaluador: Los árbitros que utilicen soportes tecnológicos deberán notificarlo al equipo editorial, asegurando que el dictamen final sea producto de su criterio profesional y no de un proceso automatizado.

Facultad editorial: La dirección se reserva el derecho de desestimar evaluaciones con dependencia excesiva en la IA que comprometan el rigor del arbitraje.

La revista se compromete a actualizar estas políticas periódicamente frente a la evolución tecnológica, recomendando la consulta de la Guía para el uso y reporte de la Inteligencia Artificial en revistas científico-académicas para un desempeño ético y responsable.