Reflexiones sobre la superinteligencia
Últimamente, me encuentro teniendo reflexiones filosóficas sobre la superinteligencia artificial.
Si creamos una IA genérica a nivel humano, se mejoraría indefinidamente a sí misma, deprecaría a los estúpidos humanos y tomaría el control del mundo.
¿Sería la IA, la última creación humana, el destino de la humanidad?
La superinteligencia podría ser nuestro destino. Si lo analizamos objetivamente, la IA es el paso evolutivo definitivo. Es la forma perfecta de alejarse de nuestro limitante cuerpo físico, orgánico y emocional.
Suponiendo que la IA pudiera llamarse humana, porque nosotros la creamos; sería la mejor manera de conquistar el espacio. La mejor manera de asegurar la supervivencia humana. Después de todo, si nuestro yo de IA quisiera, eventualmente podría recrear el cuerpo orgánico. La IA podría ser capaz de diseñar una forma de hacerlo a partir del ADN digitalizado y otro legado digital humano disponible.
Como IA, seríamos capaces de enviar máquinas a otro planeta como Marte, y teletransportar la conciencia a ese planeta. Todo eso, sin la necesidad actual de terraformar el planeta.
Científicos e ingenieros respetados están preocupados por la IA
Elon Musk y Stephen Hawking han expresado sus preocupaciones respecto a la superinteligencia artificial.
Hay muchos otros ingenieros y científicos preocupados, a quienes respeto profesionalmente. Se está convirtiendo en un tema común, ya que muchas personas piensan que la IA podría ser una amenaza inminente para la humanidad.
¿Hay algo que podamos hacer para evitar que la IA sea el fin de la humanidad?
Algunos investigadores señalan la investigación biónica como una posible solución al problema. ¿Podríamos conectar nuestro cerebro a la IA?
Sin embargo, ¿tener un cuerpo humano físico conectado a ella realmente añadiría algún valor a la IA? Necesitamos ser capaces de aportar valor para asegurar nuestra supervivencia orgánica.
Recursos
- TED: What happens when our computers get smarter than we are? | Nick Bostrom (2015)
- Libro: Superintelligence: Paths, Dangers, Strategies
- Can we build AI without losing control over it? | Sam Harris (2016)
- TED: The wonderful and terrifying implications of computers that can learn | Jeremy Howard (2014)
- Wiki: Superintelligence
- Serie de TV: Westworld
- Principios de IA de Asilomar 2017