Política sobre el Uso de la Inteligencia Artificial (IA)

REMUS reconoce el creciente uso de herramientas basadas en inteligencia artificial (IA) en los procesos de escritura, análisis y edición de manuscritos científicos. No obstante, es fundamental asegurar la integridad científica, la autoría humana y la transparencia editorial.

Conforme a las recomendaciones del International Committee of Medical Journal Editors (ICMJE, 2023), COPE (2023) y otras organizaciones editoriales, REMUS establece las siguientes directrices para el uso ético y responsable de herramientas de IA en los manuscritos sometidos a revisión y publicación.

Declaración Obligatoria del Uso de IA

Todos los autores deberán declarar explícitamente si han utilizado herramientas de inteligencia artificial generativa en alguna etapa del desarrollo del manuscrito. Esto incluye, pero no se limita a:

  • Redacción o corrección de texto.
  • Traducción.
  • Generación de imágenes, gráficos o tablas.
  • Análisis estadístico o procesamiento de datos.

La declaración deberá incluir:

  • Nombre de la herramienta o modelo utilizado (por ejemplo, ChatGPT de OpenAI, Gemini de Google, Copilot de Microsoft, DALL·E, etc.).
  • Propósito específico para el cual fue empleada.
  • Limitaciones identificadas en su uso.
  • Este aviso deberá colocarse al final del manuscrito, en un apartado titulado “Declaración sobre el uso de IA”.

Responsabilidad Humana y Autoría

  1. El uso de IA no confiere autoría. Las herramientas de IA no pueden ser consideradas coautores bajo ningún criterio, ya que no pueden asumir responsabilidad legal, ética ni responder ante el proceso editorial.
  2. La responsabilidad total del contenido recae exclusivamente en los autores humanos.
  3. Los autores deben asegurarse de que los textos generados o editados por IA estén correctamente verificados, editados y revisados por los propios autores, garantizando precisión, originalidad y ausencia de sesgos.

Plagio, Ética y Originalidad

El uso de IA no exime del cumplimiento con las políticas contra el plagio. REMUS realizará controles de similitud con herramientas anti plagio, y los textos generados con IA serán evaluados con el mismo rigor.

La generación de imágenes con IA debe respetar los derechos de autor y la ética médica. No se permitirán representaciones clínicas engañosas ni imágenes que simulen material humano sin consentimiento o contexto ético.

Los datos numéricos, estadísticos o experimentales generados por IA deben indicarse como simulados, y no podrán sustituir datos reales en trabajos originales de investigación.

Limitaciones y Advertencias

REMUS desalienta el uso excesivo o no justificado de IA para escribir secciones fundamentales como introducción, discusión o conclusiones, debido al riesgo de simplificación, errores fácticos y falta de pensamiento crítico del autor.

La IA puede ser considerada una herramienta de apoyo, no un sustituto del trabajo intelectual y científico humano.

Evaluación Editorial

El Comité Editorial podrá solicitar aclaraciones adicionales sobre el uso de IA durante la revisión.

El incumplimiento de esta política será considerado una falta ética y podrá derivar en el rechazo del manuscrito o su retractación posterior si ya ha sido publicado.

Referencias Normativas Consultadas

  1. International Committee of Medical Journal Editors (ICMJE). Recommendations for the Conduct, Reporting, Editing, and Publication of Scholarly Work in Medical Journals
  2. Committee on Publication Ethics (COPE). https://publicationethics.org/Ethical guidelines for the use of AI tools in scholarly publishing
  3. WAME. Recommendations on ChatGPT and AI Tools in Scholarly Publications