Los riesgos del Singularity

Por Singularity no sólo entendemos el concepto singularidad. También es el término acuñado por Ray Kurzweil en su primer libro para anunciar un hito próximo de la civilización humana: el momento en que la inteligencia dejaría de ser predominantemente biológica y crecería exponencialmente como consecuencia de que máquinas inteligentes podrían construir máquinas aún más poderosas sin ayuda de los humanos.

¿Sería eso bueno o malo? Para Kurzweil, marcaría el inicio de una nueva civilización que permitiría trascender. Luke Muehlhauser, autor de Facing the Intelligence Explosion, no es tan optimista. El matemático inglés I.J.Good había escrito: “Llamemos ultrainteligente a la máquina que pueda superar al más inteligente de los humanos en todas sus actividades intelectuales. Una máquina ultrainteligente podría crear aún mejores máquinas, generando así una ‘explosión’ que podría dejar atrás al ser humano. Así, la primera máquina ultrainteligente podría ser la última invención del hombre”. ¿Cuán lejos estamos de ese hito?

La primera mitad del libro, disponible en la web, es sobre la racionalidad en general; sobre los principios esenciales de la Lógica y de las teorías de probabilidad y toma de decisiones. Explica por qué los humanos resultan seres tan irracionales. A una máquina ultrainteligente, cualquier buen profesional podría parecerle lo que a nosotros el loquito idiota de un pueblo.

La Inteligencia Artificial tiene el problema que no puede incorporar valores ni criterios morales porque éstos son difíciles de formular con precisión. Incluso los estados. ¿Cómo entendería una máquina el aburrimiento? Y una máquina potente que sólo los registre al 95% podría ocasionar un gran desastre.

El conocimiento, la tecnología y la cultura de los últimos 10,000 años de civilización se lograron con un cerebro de casi el mismo tamaño. Ésa es la razón por la cual la Inteligencia Artificial puede marcar un quiebre tan brutal con el pasado.

Comments are closed.