Ars Technica ha retirado un artículo después de que se publicaran en él citas fabricadas mediante una herramienta de inteligencia artificial y atribuidas a una fuente que no las había pronunciado, según reconoció el editor jefe del medio, Ken Fisher, en una nota editorial difundida el 15 de febrero.
“Ars Technica publicó un artículo que contenía citas fabricadas generadas por una herramienta de IA y atribuidas a una fuente que no las dijo. Es un fallo grave de nuestros estándares”, señaló Fisher, quien subrayó que las citas directas deben reflejar siempre con exactitud las palabras reales de la fuente. El responsable editorial añadió que el medio ha revisado trabajos recientes y que, por el momento, considera que se trata de un incidente aislado.
El artículo retirado llevaba por título “After a routine code rejection, an AI agent published a hit piece on someone by name” y abordaba un conflicto en la plataforma GitHub relacionado con supuestos agentes de IA que realizan contribuciones automáticas a proyectos de código abierto. Parte de la información procedía del blog personal de Scott Shambaugh, mantenedor voluntario de la biblioteca matplotlib, quien había rechazado una solicitud de cambios atribuida a un usuario identificado como MJ Rathbun, al que consideró un agente de IA.
Sin embargo, el texto de Ars Technica incluía citas atribuidas a Shambaugh que no aparecían en su blog ni habían sido pronunciadas por él. El propio Shambaugh actualizó su publicación para aclarar que no había hablado con el medio ni había formulado las declaraciones recogidas. Posteriormente, Benj Edwards, uno de los autores del artículo, explicó en la red social Bluesky que utilizó por error una versión parafraseada generada con ChatGPT en lugar de una cita textual del blog original. Según su declaración, estaba enfermo y trabajaba con prisa cuando incorporó ese contenido.
Ars Technica, propiedad de Condé Nast, prohíbe la publicación de material generado por inteligencia artificial salvo que esté claramente etiquetado y presentado con fines demostrativos. Fisher recordó en su nota que esa norma “no es opcional” y que en este caso no se respetó. El medio ha pedido disculpas a sus lectores y a Scott Shambaugh por haberle atribuido declaraciones que no realizó.
El episodio se produjo en un momento de creciente debate sobre el uso de agentes de IA en proyectos de software libre, especialmente tras la aparición reciente de herramientas como OpenClaw y plataformas como moltbook, que facilitan el despliegue de agentes autónomos basados en modelos de lenguaje. El artículo ahora retirado analizaba precisamente un caso relacionado con esa tendencia, lo que ha acentuado la repercusión del error editorial.



