Ya
la ciencia ficción se ha encargado de plasmar en nuestras mentes la idea de
robots autónomos que se revelan contra sus creadores: los seres humanos.
Probablemente sean una exageración de la realidad. Cuando hablamos de darle
inteligencia a un ente, ya sea un sistema, un programa, o un robot, básicamente
nos referimos a que aun cuando estos ganen la capacidad de resolver problemas
en los ámbitos en los que operan, ellos buscarán la mejor respuesta a esta
interrogante, y posteriormente la ejecutarán; pero esto no lleva
consideraciones valóricas de por medio, es decir, ellos solos buscarán el fin de
cómo llevar a cabo dicha operatoria de acuerdo a los parámetros con los que han
sido creados
El
pensamiento racional y sensato frente a un objetivo, son propios del
conocimiento y sentido común de cada ser humano, pero si tenemos una
inteligencia en blanco y la ubicamos en medio del mundo, solo podrá sacar
conclusiones sobre aspectos de su entorno (como el movimiento de las cosas, el
cambio del clima, etc.) más no podrá concluir nada con respecto a lo “correcto”
de las cosas. Ni siquiera entre los seres humanos lograría entender el concepto
de “moral”, porque no tendría la necesidad de entenderla a menos que se durante
su periodo de programación se le hayan impartido instrucciones acerca de cómo actuar
frente a diversas situaciones que impliquen estos valores puramente humanos.
Valores
o inclinaciones como la libertad, la empatía, la comprensión, la resolución de
conflictos, y otros son tan propios de los seres humanos; pero para que una
I.A. los posea deben ser programados con ellos, lo que hacernos dos preguntas
elementales:
1) ¿Qué programador podría reunir entre sus instrucciones TODAS aquellas que se basen en los juicios de valor existentes en la naturaleza humana?
2) ¿Con qué criterio u objetividad serían medidos los mismos de modo de considerar correcto su accionar?
Todo este debate nos deja claro que si la inteligencia artificial no es ocupada de manera correcta, podría representar inconvenientes a futuro, pero solucionables al fin.
Para finalizar compartimos imágenes de la película I.A Inteligencia Artificial (2001) que aborda este tema desde la ciencia ficción y la filosofía bajo varios conceptos llevados futuriscamente al extremo para su dramatización:
1) ¿Qué programador podría reunir entre sus instrucciones TODAS aquellas que se basen en los juicios de valor existentes en la naturaleza humana?
2) ¿Con qué criterio u objetividad serían medidos los mismos de modo de considerar correcto su accionar?
Todo este debate nos deja claro que si la inteligencia artificial no es ocupada de manera correcta, podría representar inconvenientes a futuro, pero solucionables al fin.
Para finalizar compartimos imágenes de la película I.A Inteligencia Artificial (2001) que aborda este tema desde la ciencia ficción y la filosofía bajo varios conceptos llevados futuriscamente al extremo para su dramatización:
No hay comentarios:
Publicar un comentario