¿Y qué hacemos cuando una herramienta de "detección de IA" dice que un determinado texto ha sido generado por IA cuando, en realidad, no ha sido así?
Conversation
Notices
-
Vary, el del sombrero 🔻🐀🦩🍉 (varyingweion@paquita.masto.host)'s status on Saturday, 26-Oct-2024 20:21:04 UTC Vary, el del sombrero 🔻🐀🦩🍉 -
Vary, el del sombrero 🔻🐀🦩🍉 (varyingweion@paquita.masto.host)'s status on Saturday, 26-Oct-2024 20:53:04 UTC Vary, el del sombrero 🔻🐀🦩🍉 Digo más. Si aceptamos como premisa que las inteligencias artificiales se equivocan y perpetúan sesgos, y que cualquier uso de esta tecnología debe realizarse de forma responsable, verificando de forma crítica y 'a posteriori' cualquier resultado que arroje... ¿hasta qué punto es aceptable confiar en lo que nos diga una inteligencia artificial sobre que un texto ha sido generado por inteligencia artificial?
En fin... reflexiones.
-
Vary, el del sombrero 🔻🐀🦩🍉 (varyingweion@paquita.masto.host)'s status on Saturday, 26-Oct-2024 20:53:05 UTC Vary, el del sombrero 🔻🐀🦩🍉 Claro. Si partimos de la premisa —que comparto— de considerar poco ético el uso de inteligencia artificial en la generación de textos, ¿por qué aceptamos y asumimos válido el uso de una inteligencia artificial que nos diga si un texto está generado o no por inteligencia artificial —que no lleve marcas de agua—?
Itan :fedi: repeated this.
-