@arturoe si, puede ser. No se si por ejemplo, se podrian llegar a colocar una IA al frente de armas necleares y que ella ataque si cree que hay un ataque inminente del enemigo, eso podria terminar en un desastre. Es como el cuento de los paperclips en el libro The Technological Singularity de Shanahan. Esomsi, no hay que distraerse de otras cosas tambien.
Si claro, eso sería un evento terrible. Me recuerda al 'Doomsday Machine' de la película de Kubric "Dr. Strangelove". O el ejemplo de la simulación del artículo cuya liga adjunto.
Pero esos riesgos de extinción son riesgos que ocurrirían "si" se pusiera una AI a lidiar con eso. Los riesgos más inminentes son los que dependen de procesos que ya están en marcha, como el calentamiento global, la disparidad económica, etc.