• No se han encontrado resultados

artículo 1

N/A
N/A
Protected

Academic year: 2020

Share "artículo 1"

Copied!
18
0
0

Texto completo

(1)

INTELIGENCIA ARTIFICIAL Y META-TÉCNICA

Alberto Castillo Vicci

*

Resumen: Algunas reflexiones filosóficas del Dr. Ernesto Mayz Vallenilla acerca de los fundamentos de la Meta-técnica sirven como programas de investigación para equipos multidisciplinarios de investigadores en Filosofía, Matemáticas y Ciencias de la Computación, quienes buscan paradigmas nuevos y diferentes con que responder a preguntas tradicionales en Inteligencia Artificial; como vgr., el diseño de tests formales que prueben la inteligencia en una máquina y nuevos principios o logos en técnicas que trascienden los que hasta ahora han caracterizado la ratio technica y que pudieran abrir nuevas rutas de investigación científico-tecnológicas bajo el nombre de Meta-técnica.

La presente monografía examina los alcances y resultados que hasta ahora se han conseguido en tales programas de investigación, llevados a cabo en la Universidad Centro Occidental “Lisandro Alvarado”, dejando al lado tecnicismos de los informes profesionales en los que se reportaron las investigaciones originalmente, para facilitar su lectura al lector no especializado.

Introducción

Los Fundamentos de la Meta-técnica [11], del doctor Ernesto Mayz Vallenilla, han inspirado, hasta el presente, tres proyectos de investigación científico-filosófica en la Universidad Centro Occidental “Lisandro Alvarado”1 (UCLA). De dos de ellos ya se tienen

resultados publicados [2], [4] y la investigación del tercero recién comienza. Los temas tratados en estos proyectos son:

* Investigador de la Unidad de Investigación en Inteligencia Artificial y Coordinador de Postgrado en Ciencias de la Computación del Decanato de Ciencias y Tecnología de la Universidad Centro Occidental "Lisandro Alvarado". Barquisimeto, Venezuela. E-mail: alenass@cantv.net

1 Unidad de Investigación en Inteligencia Artificial del Decanato de Ciencias y Tecnología en la Universidad

(2)

a) El diseño de una prueba formal de la Inteligencia Artificial en la Computación Clásica.

b) El caso de la Computación Cuántica como Meta-técnica de la Computación.

c) El diseño de una prueba formal de la Inteligencia Artificial en la Computación Cuántica.

La Inteligencia Artificial (también conocida por sus iniciales como IA) pretende responder preguntas que ninguna ciencia o tecnología se haya reservado para sí sola, y su interrogante primordial es la siguiente: ¿cuál es la naturaleza de los procesos cognitivos, tales como el razonamiento, el lenguaje, la memoria, la percepción, el aprendizaje, el control motor, etc., para que, conociéndola, podamos construir máquinas (computadores) capaces de realizarlos con igual o superior efectividad a la que despliega el ser humano? En consecuencia, por la complejidad y variedad de sus propósitos, la Inteligencia Artificial incursiona en campos pertenecientes a otras disciplinas del conocimiento, tales como: la Lógica Matemática, las Ciencias de la Computación, la Filosofía, la Sicología Cognitiva, la Lingüística, la Electrónica, la Física...; dada esta circunstancia, para poder llevar a cabo proyectos de investigación en sus dominios, es necesario nuclear equipos multi-disciplinarios en todo el plan del trabajo o en algunos de sus segmentos.

En esta monografía presentamos la síntesis de cómo hemos llevado a cabo, en nuestra Universidad (UCLA), los proyectos multi-disciplinarios −antes nombrados− sobre la Inteligencia Artificial y la Meta-técnica, pero sin usar los tecnicismos con los que se reportaron originalmente los informes técnicos de sus resultados, y facilitar así su acceso al lector no especializado, o sin conocimientos profesionales, sobre los tópicos tratados.

Pero, antes de entrar en materia, es necesario diferenciar, desde una vez, a la Computación Clásica de la Cuántica, que son los dominios donde se ejerce nuestra investigación. En efecto, su diferencia está dada por las distintas clases de física que se emplean para construir los computadores en una y en otra Computación. A la primera, a la Computación Clásica, la rigen las leyes de la mecánica y electrónica hamiltoniana o física clásica2; a la segunda, a la Computación Cuántica, la gobiernan las leyes de la mecánica

cuántica o física cuántica. La diferencia entre los procesos de Computación de una y otra es radical, y requieren de logos diferentes para su inteligibilización y construcción de sintaxis ordenadoras. Es, precisamente, el trabajo del Dr. Mayz el que nos sirve de orientación en la búsqueda de tales principios para homologar sintaxis tan diferentes.

2 Además del esquema newtoniano, propiamente dicho, la Física Clásica está asociada a los grandes

matemáticos del siglo XVIII y XIX, que contribuyeron a su desarrollo uniendo la mecánica clásica con la óptica: Euler, Lagrange, Laplace, Liousville, Poisson; Jacobi,... y, particularmente Hamilton, pues también se la conoce como “teoría hamiltoniana” según la obra de W. R. Hamilton (1805-1865) que la resume.

(3)

Una prueba formal de la inteligencia artificial en computación clásica3

Cada día aparecen nuevos programas de computadoras que igualan o superan el comportamiento inteligente de los seres humanos en algún dominio de la actividad inteligente y conocimiento consciente, al punto de que hoy es válido preguntarse si tales programas son sólo simulación de comportamientos cognitivos o evolucionarán... hasta alcanzar una Inteligencia Artificial, cuyo correspondiente artefacto llegue a pensar, a tener conciencia de su pensamiento y a ser una “persona”. En tal sentido hay dos tesis en Inteligencia Artificial: la tesis débil según la cual los programas de la IA sólo simulan el pensamiento, pero una máquina jamás llegará a pensar; y la fuerte que sustenta el caso extremo, de una máquina que pudiera incluso simular el pensamiento de un ser humano, en grado tal, que su comportamiento no se distinguiera del de una persona... y, por tanto, “piensa” y es una persona.

¿Cuál es la prueba que decide la diferencia?

En 1950 el afamado matemático Alan Turing −en la monografía científica que, desde entonces, cuenta con mayor referencia científica, acerca de máquinas inteligentes, y cuyo título es Computing Machinery and Intelligence [21]− propuso una prueba acerca de la inteligencia en una máquina; Turing llamó a esa prueba “el juego de la imitación”, que hoy es más conocida como el test de Turing. El mismo consiste en someter a la máquina a una conversación con un interlocutor humano, quien equivocará su naturaleza un número significativo de veces, hasta el punto de confundirla con otro ser humano, con quien simultáneamente también se comunica... y atribuirle inteligencia (ni la máquina ni la persona, por supuesto, están visibles para el interlocutor, se comunican con aquél por terminales que no los identifican). Por lo tanto, el test de Turing es una prueba imprecisa y heurística de la Inteligencia Artificial: no distingue entre pensamiento y su simulación... y no siempre la respuesta es correcta.

Desde hace medio siglo se le hacen críticas al test de Turing sobre la base de que sólo evalúa el comportamiento... y no la inteligencia o el pensamiento mecánico en sí. Por esto, ie concluye que en todo caso el test sólo podría confirmar la tesis débil pero no la fuerte de la IA [2], [16].

El escollo que afrontan sus críticos es que ninguna de las opciones que se proponen como alternativa... se fundamentan en otro procedimiento distinto a la observación del comportamiento aparentemente consciente, pero no en la conciencia en sí. Y pareciera que no tienen otra salida: el único modo de saber si una máquina piensa es ser esa máquina...

3 Este proyecto fue llevado a cabo por convenio entre la Universidad Centro Occidental “Lisandro Alvarado”

(4)

aunque algunos filósofos hayan sostenido que el comportamiento es suficiente y hace a la conciencia innecesaria como hipótesis que sustente la inteligencia [7]. Ello se aplica, particularmente a aquéllos influenciados por los científicos de la Sicología Cognitiva y la Inteligencia Artificial, pero cuyas opiniones se han venido revisando en los últimos años [19], [20]. No existe, sin embargo, una prueba objetiva, de carácter científico, valga decir públicamente verificable, de la conciencia, que sirva para demostrar que existen otras mentes: naturales o artificiales. Y, desde Descartes, este problema había ocupado el pensar sólo de los filósofos... hasta el siglo XX. A partir de entonces, al de científicos también... particularmente a científicos de la Sicología Cognitiva y a los de la Inteligencia Artificial.

Es bueno advertir ahora, que los programas científicos, tanto de la Inteligencia Artificial como los de la Sicología Cognitiva, parten no de una hipótesis científica sino filosófica: el computacionalismo4. Según ella, los procesos cognitivos se den en los seres

humanos, en animales, máquinas o extra-terrestres−, son procesos computacionales. Así, René Descartes [5] y más recientemente Stephen Hawking [8] (sólo para mencionar a un afamado filósofo y a un reconocido físico que se han ocupado del problema de la existencia de otras mentes5, con cuatro siglos de diferencia) consideran como prueba válida,

o por lo menos aceptable para saber si un autómata, aparentemente idéntico a un ser humano construido con una alta tecnología hecha para engañar a los hombres, no es una persona... el hecho de que su comportamiento sea predecible; pues el del ser humano no lo es... y en tal diferencia radica la posibilidad de que el ser humano posea libre albedrío y el autómata no.

De manera que una posible prueba del pensamiento en un ente consciente de sí mismo descansa en la posibilidad de predecir cómo se manifestará externamente la conciencia espontánea y libre. Mayz, sin embargo, la presenta de esta otra manera: “...la autoconciencia entendida como una conciencia consciente de sí misma por sí misma... cuyo único responsable y libre ejecutor es cada hombre por mandato expreso de su propia libertad. Entendida así la autoconciencia... ella no puede ser poseída por ningún artefacto, sea cual fuere su índole o nivel, a menos que semejante artefacto despliegue por sí mismo la requerida autarquía y autonomía que distinguen a la libertad humana. Una libertad programada, en cualquier caso no es sinónima de una genuina libertad... a menos que desde sí misma permita y propicie la negación de su propio sustentáculo, erigiendo en lugar suyo un reino de fines, opuestos a los de aquél, elegidos y queridos espontáneamente” [12].

4 Una versión del funcionalismo [2].

5 Hawking plantea el problema desde el punto de vista del determinismo y una teoría unificada o “del todo”,

que en su opinión se conseguirá en breve tiempo, y según la cual todo está determinado y todo puede predecirse, en consecuencia el libre albedrío es una quimera, máquina y hombre son determinados: no hay razón alguna para que el pensamiento no sea un atributo tanto del hombre como la máquina. El hombre es alguna clase de autómata.

(5)

La prueba de la autoconciencia en un artefacto, según nos lo manifiesta Mayz, sería que aquél fuese capaz de fijarse sus propios fines de manera autárquica, autónoma y espontáneamente −valga decir, libremente− aunque propicie la negación de sus propios sustentáculos.

Ahora bien, con estas palabras puede avizorarse un programa de investigación científica, para poner a prueba la hipótesis central de la Inteligencia Artificial y su tesis fuerte: valga decir, la del computacionalismo; según el cual, los procesos cognitivos son computacionales, en otras palabras, que pueden reducirse al procesamiento formal de símbolos, puesto que toda máquina o autómata es un sistema formal automático.

En consecuencia, una máquina se fijará sus propios fines si puede escoger sus futuros estados y tendrá libertad si tales estados no son deducibles de sus axiomas, que son sus sustentáculos; en cuyo caso tendrá que sustituir por sí misma sus axiomas por otros de los que los estados escogidos sean deducibles. Y esto nos permite, a nuestro parecer, diseñar una prueba formal de la Inteligencia Artificial sin depender totalmente de la conducta observable por un ente externo, como lo exige el test de Turing, por caso.

Nuestra investigación busca, por ello, diseñar tal prueba formal... que para abreviar la designaremos con el título de test mayziano.

Puesto que la prueba es compleja y larga, vamos a señalar a continuación sus principales componentes6 tal como la hemos concebido a la fecha comenzando por

establecer que nuestra primera versión de la prueba ha sido hecha limitándonos exclusivamente a la Computación Clásica (es decir, a los computadores actuales, regidos por las leyes de la Física Clásica, newtoniana o hamiltoniana) sin abordar otros fascinantes campos de reciente data. Para construirla seguimos el siguiente análisis:

1. Hipótesis (Mayz Vallenilla [12]): Un artefacto tiene autoconciencia si se fija de manera autárquica, autónoma y espontáneamente fines (estados futuros) distintos para los que fue programado (en términos de la IA, autoprogramándose: creando nuevas cadenas de deducciones, no permitidas en su programación original, que lo lleven de su estado actual a los nuevos estados futuros), aunque para ello deba modificar sus sustentáculos (axiomas).

2. Argumento A (Karl Popper [17]): Es evidente que la hipótesis anterior de Mayz es falsa si el determinismo es verdadero. Si el determinismo es verdadero, no hay diferencia conceptual entre el hombre y un autómata: un autómata, en principio puede pasar el test mayziano, aunque no tenga libre albedrío, pues como en el hombre todos sus futuros estados son predecibles y al escoger nuevos estados no puede hacer otra cosa... éstos están predeterminados a partir de su estado presente y sus condiciones iniciales. O como sostenía

(6)

Laplace [17], para un demonio con suficiente conocimiento de todos los sucesos presentes del mundo. (En efecto: para Laplace basta conocer la velocidad, la masa y la posición de todas las partículas del mundo en momento del tiempo dado... para que con las leyes de la mecánica clásica, puedan calcularse cuáles han sido o serán todos los estados pasados y futuros del mundo)... y, en consecuencia, tener autoconciencia... y aún así no gozar de libre albedrío que sería una quimera pues todo está predeterminado. Efectivamente, un demonio laplaciano tampoco cuenta con libertad pero podría predecir lo que va a escoger porque ambas cosas son lo mismo si el determinismo es verdadero: predicción y decisión son lo mismo.

Karl Popper diferencia entre tres tipos de determinismo: el religioso, el metafísico y el científico. El religioso dice que todo está prefijado por Dios quien es omnisciente y omnipotente. El metafísico sostiene que todos los sucesos de este mundo son fijos y predeterminados, aunque no lo sepa nadie; y el futuro, como el pasado y el presente, no pueden cambiarse. El determinismo científico, por su parte, consiste en sustituir a Dios por la idea que la Naturaleza es escrutable ya que podemos conocer sus leyes... y conociéndolas, podemos entonces predecir el futuro.

Evidentemente que el determinismo científico presupone el metafísico. De ello parten los físicos que buscan una teoría unificada que de lograrse permitiría predecir todo. Pero basta que un solo suceso en este mundo sea impredecible... para que el determinismo metafísico y, por ende, el científico sean falsos.

Para Popper, tal suceso existe porque es imposible predecir nuestro conocimiento futuro. Científicamente sabemos que algunos eventos son predecibles y otros no. En el estado actual de nuestro conocimiento científico, son predecibles, por ejemplo, el movimiento de los planetas y el comportamiento de los relojes; no así las nubes ni simultáneamente el momento y la velocidad de las partículas elementales. Por caso: nuestras predicciones en algunos sucesos son probabilidades7 y en otros amplitudes de

probabilidades8. Sin embargo, el determinismo científico se sustenta en el éxito de la

ciencia, en el aumento de nuestras aproximaciones científicas a la verdad, y en la confianza de que tal aumento continuará hasta el punto de que podremos predecir el futuro en el grado de precisión que se desee... partiendo de situaciones iniciales tan precisas como sea necesario, para predecir, con la sola aplicación de la inferencia científica, los estados futuros del mundo o de cualquier sistema en particular bajo estudio, tanto en sus probabilidades como en amplitudes de probabilidades.

7 Mecánica clásica. 8 Mecánica cuántica.

(7)

Si el determinismo científico es verdadero, no sólo estaremos en condiciones de escrutar cuál será nuestro conocimiento futuro... sino de predecir, con precisión exacta, cuál es este conocimiento. Lo que Popper argumenta es que no es posible predecir nuestro conocimiento futuro. Para ello imagina un demonio laplaciano en forma de una máquina (que llamaremos predictora, pues su fin es predecir cuál será el estado de cualquier sistema en el mundo). Esta máquina es un sistema en sí un modelo determinista... para lo cual Popper supone una serie de axiomas o sustentáculos que la rigen, tales como: que tiene todo el conocimiento que existe a la fecha; que es un sistema cerrado; que está hecha de componentes físicos; que sus procesos tienen una duración que se suman para predecir fenómenos, tales como tiempo de lectura de las preguntas, el cálculo para la predicción y la respuesta, etc.; que es eficiente, si tiene todos los datos, y que usa nuestro lenguaje científico estándar. Con ello supone satisfacer todos los requerimientos para una predicción científica... tal como se espera del determinismo científico. Popper procede a demostrar que tal máquina no puede predecir sus futuros estados. Para ello, se le da como tarea a la predictora laplaciana la de predecir el tiempo exacto en que otra máquina idéntica a ella se detendrá y finalizará una predicción dada. El caso es que la predictora debe seguir el programa de la otra máquina, más su propio programa para predecir, con el resultado de que siempre será más largo su tiempo que el de la máquina cuya tarea se pretende predecir. De manera que cuando la predicción se haga... llegará después que ha terminado la tarea la máquina cuyo tiempo se pretende predecir. Como ambas máquinas son idénticas, de hecho sólo existe una predictora laplaciana, y se concluye que ninguna máquina, aún con todo el conocimiento acumulado para cualquier momento actual o en el futuro, podrá predecir sus futuros estados. No es pues posible predecir cuál será el conocimiento futuro... y el determinismo científico, por tanto, es falso.

3. Argumento B (John Lucas [10]). Existe una similitud entre el quid del argumento de Popper (que una máquina, no importa cuán universal y capaz sea, pueda predecir sus futuros estados) y el de Turing, acerca del llamado “problema de parada”9 en teoría de la

computabilidad (que pone limitaciones a lo que puede o no computarse y en consecuencia al computacionalismo).

Turing demostró que ninguna máquina Universal de Turing, es decir un autómata (o computador), si se le da como entrada el programa de otra máquina, puede decidir si aquella máquina se detendrá y dará un resultado o seguirá sin parar indefinidamente. Este teorema fue usado por Turing para demostrar que no existe un algoritmo o procedimiento

9 “The halting problem”. En cualquier libro sobre teoría de la computabilidad y máquinas de Turing se

(8)

mecánico capaz de decidir si un sistema formal (de grado superior capaz de contener la aritmética por caso) puede decidir si una fórmula es o no válida en su sistema; valga decir, si algunas proposiciones en la Teoría de Número, para empezar, son verdaderas o no... Y este teorema de las limitaciones de los sistemas formales refuerza los teoremas de Gödel según los cuales existen formulas que son verdaderas pero no demostrables en sistemas formales axiomáticos consistentes capaces de contener la aritmética.

El sistema no es completo; sí lo fuese, sería inconsistente: contendría algunas proposiciones y sus negaciones a la vez; contrario a lo supuesto. Lucas [10] afirma en consecuencia que, sin embargo, un matemático capaz sabe que el teorema es verdadero, saliéndose del sistema, meta-teóricamente; y, por tanto, los hombres no somos sistemas formales, es decir, no somos máquinas de Turing, autómatas o computadores pues no estamos sujetos a tal limitación. Varias respuestas han tratado de refutar este argumento de Lucas. La que nos interesa10 es la que afirma que siempre se puede hacer una nuevo

sistema formal (llamémoslo F2) sobre el anterior, el incompleto o inconsistente (sea el F1), que incluya el teorema en cuestión en forma de axioma, en otras palabras, crear una meta-teoría (F2) del sistema anterior (meta-lógica en sistemas formales); y esta meta-teoría está al mismo nivel lógico del matemático. Pero también a tal sistema meta-teórico (F2) se le aplica el teorema de Gödel... construyendo una proposición que no se demuestra en el sistema (F2)de nuevo, y se vuelve a la situación original (F2 es inconsistente o incompleto) y su refutación ad infinitum (construyendo un Fi para i=1,2,...n), lo que no hace muy convincente el argumento de Lucas para diferenciar por esta vía a hombres y máquinas.

4. El test mayziano(argumentos A y B). Sin embargo, si combinamos la idea de una predictora laplaciana de Popper y el argumento de Lucas, terminaremos por construir el test mayziano (valga decir, el argumento de Mayz Vallenilla sobre la autoconciencia por el libre albedrío de manera formal). Comencemos por agregarle dos sustentáculos más a la predictora laplaciana:

Libre albedrío:la predictora puede escoger sus futuros estados, deduciéndolos de sus axiomas, para un tiempo prefijado con exactitud... y si los axiomas contradicen tales estados (éstos no son teoremas) entonces cambia sus axiomas por otros para que la predictora no sea inconsistente.

Computacionalismo: La predictora es un sistema formal: la elección de sus futuros estados lo hace sintácticamente, en virtud de propiedades formales, sin ninguna referencia al significado o contenido de tales estados.

(9)

Ahora, ¿puede escoger la predictora un estado que contenga la siguiente proposición: “Para todo sistema formal Fi consistente existe otro sistema Fi+1 más poderoso que aquél y

también consistente, en el cual puede probarse que hay una proposición G que es verdadera en Fi pero no puede demostrarse en Fi”?

Lo que ello significa es que la predictora debe deducir tal verdad o inducirla. Puesto que uno de sus sustentáculos o axiomas es el laplacianismo, valga decir, que tiene todo el conocimiento científico a la fecha, incluyendo los teoremas de Gödel, la anterior proposición debe ser una verdad que forma parte del conocimiento de la predictora −como demonio laplaciano que es− pero al que sólo se le puede alcanzar por inducción, para reconocer toda la serie Fi como verdadera. Si embargo, la inducción matemática sólo es formalizable en sistemas formales de segundo orden (en los que se cuantifica sobre predicados) que no son decibles, ni consistentes o completos a la vez11”.

Más aún: en un sistema de segundo orden hay proposiciones que son válidas para todas las interpretaciones y no pueden ser deducidas de los axiomas del sistema formal de segundo orden. En otras palabras: un sistema de segundo orden no es mecanizable. Entonces hay estados que no podrá alcanzar mientras la máquina sea un sistema formal de segundo orden por lo menos.

No hay modo de saber que la predictora alcanzará un estado que contenga la proposición inductiva de una manera puramente formal. Es más, contendrá proposiciones que no son analíticas como se asumen en la lógica de primer orden. Se consiguen proposiciones sintéticas a priori. Ahora bien, ¿podría la predictora, puesto que goza de libre albedrío, sustituir sus sustentáculos, tal como el del computacionalismo, con sólo demostrar sintácticamente, formalmente, sus verdades? En tal caso, computacionalismo y libre albedrío, los supuestos que agregamos como requerimiento para el test mayziano (un artefacto será auto-consciente si goza de libre albedrío y escoge sus futuros estados aunque deba sustituir sus sustentáculos), entran en contradicción. Efectivamente: no se puede ser un autómata y gozar de libertad (algo que se sostiene ordinariamente, en el sentido común, pero sin pruebas como la del testmayziano).

Y esto es precisamente lo que supone el test mayziano: el ser humano aprende equivocándose, siendo inconsistente, aprendiendo de sus contradicciones y errores, corrigiendo sus equivocaciones y cambiando sus supuestos. Un sistema formal, como lo establece el computacionalismo, no se equivoca, sólo deduce verdades; no puede producir

(10)

sino verdades, pero no todas las verdades; y, en tal caso, no goza de libertad ni pasa el test mayziano.

La ventaja del test mayziano consiste, pues, en que un autómata (aunque pase el test de Turing confirmando la tesis débil de la IA) no califica en el test mayziano y, en consecuencia, no demuestra la tesis fuerte. El testmayziano tiene características de prueba verificable públicamente y, por tanto, es una prueba científica −refutable o perfectible en futuras versiones− de la conciencia e inteligencia en los autómatas. Éstas han sido nuestras conclusiones en este proyecto.

El caso de la computación cuántica como meta-técnica de la computación12

Mayz Vallenilla avizora estos resultados cuando afirma: “A nuestro juicio... mientras la ‘Inteligencia Artificial’ −incluyendo en ella desde las primitivas máquinas de Turing hasta los portentosos dispositivos y artefactos de que disponemos hoy en día− tiene como exclusivo y primordial propósito el desarrollo de instrumentos antropomórficos, antropocéntricos y geocéntricos (cuya única finalidad es simplemente sustituir y potenciar al máximo las ingénitas posibilidades y capacidades de los órganos y funciones somato-psíquicas del hombre)... la transracionalidad del logos meta-técnico supone, como base previa, la trans-formación y/o transmutación no sólo de los sensorios humanos y de sus correspondientes funciones naturales, sino asimismo de los principios y categorías de las sintaxis ordenadoras de aquellos”... “La Inteligencia Artificial encarna una mimesis de la ratio humana”... “Quisiera señalar que lo expresado no supone ni decreta una dicotomía excluyente entre ambas esferas. Al contrario: mis expectativas y esperanzas son las de que un día la ‘Inteligencia Artificial’ descubra, penetre y potencie las fascinantes dimensiones trans-óptica y trans-humana de la racionalidad y alcance al ponerse al servicio de ella... tal como hoy lo hace tan espléndidamente con el logos óptico-lumínico” [13]. Pero, también, nos muestra un posible programa de investigación científica basado en estas reflexiones filosóficas: la búsqueda del logos meta-técnico para la Computación. Es evidente que la Computación Clásica expresada en máquinas de Turing o formalismos equivalentes, es antropomórfica, antropocéntrica y geocéntrica, determinada por un logos óptico-lumínico. En los libros de textos se resalta que el propio Turing lo insinúa así al afirmar que su máquina es una abstracción de lo que hace un matemático conceptualmente cuando ejecuta un

12 Proyecto de investigación subvencionado por IDEA y la UCLA, con la participación de Alfredo Vallota

(11)

algoritmo, cuando se le mira sobre su hombro. Si ésta es la técnica de la Computación, ¿cuál es su Meta-técnica? ¿Se encuentra en ella la superación de las limitaciones de la Inteligencia Artificial fundamentada en una ratio technica? Una posible candidata, aún en proceso de realización como Meta-técnica de la Computación, es la Computación Cuántica, prefigurada por Richard Feynman en la década de los años setenta, perfeccionada por David Deutsch en los ochenta y sus seguidores en los noventa, del siglo XX, y demostrada viable en agosto del 2000 por Isaac Chuang y su equipo de investigadores de la IBM, Stanford y Calgary13. La

pregunta que nos formulamos e intentamos contestar para esa búsqueda fue la siguiente: ¿Corresponde la Computación Clásica a la ratio technica, siendo su logos de características óptico-lumínicas mientras que la Computación Cuántica es su Meta-técnica y requiere de un logos trans-óptico y trans-lumínico? Si el logos de la primera es evidentemente óptico-lumínico por el carácter antropomórfico, antropocéntrico y geocéntrico de su origen; no se evidencia tal en la segunda. Nada es más extraño al intelecto humano que el mundo sub-atómico regido por la mecánica cuántica. En efecto, todos los conceptos que describen el comportamiento de los objetos a escala humana pierden vigencia. En el ámbito de las partículas sub-atómicas los entes se describen con una doble naturaleza: se concentran en puntos de energía y, a la vez, se expanden en un vasto espacio como ondas. Y esto a su vez depende de las preguntas que hagamos al sistema. Asimismo se da la identidad de todas las partículas de una misma especie y la energía sólo se transmite en cantidades discretas (cuantos): un electrón, por ejemplo, “salta” de una órbita de energía a otra sin pasar por el espacio intermedio y hay partículas que parecen estar en posiciones diferentes en el mismo momento; hay transmisión instantánea de información y el tiempo se detiene para partículas sin masa como los fotones; se detectan partículas cuyo movimiento se puede interpretar como viajando en dirección distinta a nuestra flecha del tiempo. En el mundo sub-atómico rige el Principio de Incertidumbre, que nos impide conocer, a la vez, posición y el momento de una partícula; y, prevalece, como ley estadística inexorable de los hechos que hacen del mundo cuántico, un mundo de probabilidades en el que la tecnología habitual, tradicional, no tiene cabida y pareciera requerir para su desarrollo una tecnología distinta a la del ámbito clásico.

Lo que sabemos del mundo cuántico sólo lo deducimos, no lo percibimos. Debemos usar instrumentos y equipos en extremo complejos para llegar a tal alteridad. Y, evidentemente, se abre un ámbito para un logos distinto del tradicional pues se hacen posibles otras formas de inteligibilización y organización de la alteridad, como son otros

13 Dada la abundante bibliografía a la que hacemos referencia, para simplificar el presente reporte,

(12)

tipos de geometría diferentes a la euclídea; espacios multidimensionales; álgebras con matrices infinitas, que son las que pueden describir los fenómenos que allí suceden.

¿Cómo se comunica la transmutación del logos de la técnica en el de la Meta-técnica si son modalidades de sintaxis totalmente distintas? Mayz avizora un lenguaje traductor que llama nootecnia cuyas funciones describe así: “la sugerida labor de tra-ducción −uno de cuyos propósitos sería trasladar los patrones sintácticos del logos meta-técnico a los códigos interpretativos del lenguaje óptico-lumínico de la ratio humana− debería ser realizada a través de una disciplina que, desde ahora, designaremos con un nuevo término: la nootecnia” [14].

Y puesto que no disponemos de sensorios en los seres humanos para el traslado de patrones sintácticos, la nootecnia será sólo posible por artefactos que comuniquen alteridades tan disímiles. Nuestro trabajo en esta investigación consistió en buscar tal nootecnia para la Computación Clásica y la cuántica y analizar cómo se transmutan los respectivos logos de una y otra.

El primer paso fue el buscar una sintaxis formal que, en principio, pudiera expresar ambas. Y consideramos como tal a la lógica matricial... puesto que en ella se expresa el álgebra booleana con que se construyen los circuitos de los computadores clásicos, facilitando las operaciones matriciales que representan y describen apropiadamente a la mecánica cuántica.

La Computación Cuántica es el resultado de la evolución de la tecnología para construir computadores que, al reducirlos en tamaño continuamente, alcanzan escalas tales que ya se miden en millardésimas de metros, realizando computaciones gobernadas por las leyes de la mecánica cuántica. La Computación Cuántica consiste, de manera general, en controlar la evolución de los estados cuánticos por los que pasan un conjunto de partículas elementales sujetas a tal control. El estado inicial de las partículas que pueden tomar uno de dos posibles estados (aunque también tienen la particularidad de poder estar ambos a la vez en superposición de estados) para formar un sistema binario, puede ser evaluado como los datos de entrada al computador cuántico y su estado final como la salida. El proceso de evolución del estado inicial al final es la Computación realizada. De esta manera memoria y procesador son uno mismo en un computador cuántico. La evolución se llama unitaria porque debe realizarse como un proceso elemental único, como unidad sola, sin ninguna interferencia externa al sistema.

La Computación Cuántica tiene características que la diferencian radicalmente de la Computación Clásica o tradicional, como consecuencia de obedecer a las leyes de la mecánica cuántica, tales como (además de la evolución unitaria), el operar con amplitud de

(13)

probabilidades, la interferencia cuántica, el paralelismo cuántico y el enramado cuántico. Estas características pueden resumirse diciendo que un computador cuántico es un sistema físico que acepta estados de entradas (inputs states) que representan una superposición coherente de muchos posibles argumentos (inputs). La palabra coherente significa que el sistema aunque aislado del ambiente se acopla con él en grado tal que la evolución unitaria procede: la decoherencia es el grado en que tal acoplamiento es aceptable. Y es la causa de que el mundo de nuestra vida diaria, del sentido común, sea aparentemente clásico, determinista y no aleatorio como el de la verdadera naturaleza cuántica.

La Computación Cuántica ofrece un enorme paralelismo y la amplitud del espacio computacional está exponencialmente relacionada con el tamaño del sistema; pero, además, el enramado cuántico permite codificar información en partes de un sistema físico mutuamente correlacionadas... aunque pudieran estar separadas entre sí ilimitadamente. Sin embargo, es elemental (pero fundamentalmente importante) el hecho que la evolución cuántica es ultra sensible a interacciones con el medio ambiente; la enorme fragilidad de los estados cuánticos usados para procesar información hace que su construcción sea en extremo difícil y supone superar varias barreras técnicas, entre las que sobresale la reversibilidad de sus componentes para que el proceso de evolución sea unitaria. Es decir, que pueda ser aislada del ambiente que le rodea. Una operación es reversible si se pueden reconstruir sus entradas (inputs)de sus salidas (outputs).

Richard Feynman, en 198514, mostró cómo un computador cuántico podía partir del

diseño de un circuito booleano que realizara la Computación deseada en que cada conmutador o gate booleano del circuito realiza una operación unitaria en uno o más bits cuánticos para lo que usaba unos gates reversibles diseñados por Fredkin y Toffoli15; de aquí

Feynman pasaba a construir un operador de evolución o hamiltoniano, que es el verdadero computador cuántico, partiendo de tal circuito. Era evidente, como lo mostraron quienes mejoraron el diseño de Feynman a partir de su trabajo de los años ochenta, que no se puede construir un computador cuántico de los circuitos clásicos. Sabemos que toda la lógica puede hacerse con sólo las combinaciones del NOT con el AND o el OR; y hasta con una sola clase de operador o gate como el juntor NO Y (o NAND en inglés) pero sólo el NO es reversible; de los demás no se pueden construir las entradas de la salida, pues borran información en el proceso, disipando calor en el medio ambiente y la evolución unitaria de un circuito que se diseñe tomándolos como modelos, colapsa.

14 Capitulo VII de [4]. 15 Ibidem.

(14)

Mucho del trabajo en el diseño de Computación Cuántica, en nuestros días, consiste en intentar impedir que Computación y ambiente no interactúen (o se controle, hasta cierto grado, su interrelación y se mantenga la coherencia de la evolución cuántica). Hasta ahora, esto se ha logrado sólo con la reversibilidad (esto es que el proceso vaya en un doble sentido y la Computación pueda invertirse).

De tal manera que, recapitulando, programar un computador cuántico consiste en simular, con un operador de evolución cuántica o hamiltoniano, el comportamiento de un circuito booleano o máquinas de Turing clásicos, que realizan la Computación deseada. Puesto que tanto los circuitos booleanos como las máquinas de Turing clásicos son irreversibles y de tales no es posible simular la evolución cuántica que obedece leyes físicas reversibles, el primer paso consiste en convertir los circuitos o máquinas irreversibles en reversibles; el segundo, a partir de allí, construir el hamiltoniano.

Existen procedimientos generales para efectuar el primer paso. Es decir, para convertir un circuito o máquina irreversibles en reversibles; pero no existe un procedimiento formal y sistemático −que no sea otro que el ingenio particular del programador− para el segundo: crear de los sistemas reversibles un hamiltoniano.

Nuestra investigación consistió en usar la lógica matricial para diseñar circuitos reversibles tomados de los clásicos irreversibles. Con la lógica matricial, no sólo se convierte cualquier circuito booleano de Computación Clásica irreversible en uno reversible, sino que es posible establecer cómo, a partir de allí, crear sistemática y formalmente el hamiltoniano correspondiente. Una vez que logramos esto, pudimos estudiar matemáticamente qué pasaba con los principios fundamentales o logos de la Computación Clásica cuando se transforman sus computaciones en cuánticas... con el fin de determinar así, si la segunda es la Meta-técnica de la primera... de acuerdo a lo establecido por Mayz.

Los principios de la Computación Clásica son los de la Lógica más el control: es decir, de los sistema formales automáticos. Y éstos son los muy conocidos de identidad, tercero excluso, consistencia o no contradicción y la función de transición que lleva al sistema o máquina de un estado a otro.

Pero, al usar la lógica matricial como puente traductor entre el diseño clásico y el cuántico, dado los principios de superposición, enramado, amplitud de probabilidades y operadores de aniquilación de este último, el logos de la Computación Clásica desaparece para dar cabida a un nuevo logos en la cuántica. En otras palabras, por sus principios la Computación Cuántica es radicalmente diferente en clase a la Computación Clásica.

Así, el Principio de Identidad ya no se sostiene en una superposición de estados en que cada estado es él y todos los demás estados posibles con los que está correlacionado. El Principio de Consistencia o no contradicción tampoco se sostiene, puesto que la

(15)

superposición de un estado y su negación co-existen. Asimismo, el Principio del Tercero Excluso no ordena la alteridad de un computador cuántico... pues el todo no es la conjunción de un estado y todos los estados restantes... también hay estados vacíos o null states, resultados de los operadores de aniquilación que no tienen parangón con la Computación Clásica.

Finalmente, la función determinística de transición se cambió por una transformación probabilística. Efectivamente, mientras en un algoritmo, una máquina de Turing o un computador clásico, es necesario conocer, sin ambigüedad alguna, el próximo estado en que estará el sistema a partir de su estado actual y datos de entrada, esto no es posible determinarlo en un algoritmo, máquina de Turing o computador cuántico.

Tampoco corresponden a probabilidades (como se dan en las máquinas de Turing probabilísticas o llamados random machines) pues no conocemos nunca el proceso de la evolución que se ha dado una vez hecho en la Computación Cuántica, como se conoce, una vez realizado, en aquellas otras máquinas probabilísticas pero clásicas. Matemáticamente, entonces, la Computación Cuántica es radicalmente diferente (en clase) de la clásica. Los proto-principios inteligibilizadores o logos de la segunda desaparecen en la primera. La ratio técnica, en que se fundamenta la Computación Clásica, se transmuta en otra ratio muy distinta en clase como es la que sostiene a la Computación Cuántica... aunque no precisamos cuál es exactamente tal ratio en el estado actual de nuestro conocimiento.

Y el espectro electromagnético de la luz (fotones y ondas), dados por una longitud y frecuencia específica, no tienen pre-eminencia sobre los demás espectros: la radiación lumínica es sólo una de las demás radiaciones de la alteridad cuántica. No podemos ver, ni siquiera observar, el proceso de la Computación Cuántica y sus eventos. Sólo tendremos acceso a ellos por algún artefacto, que en algunas investigaciones de laboratorio, nos hacen pensar que son hetero-polímeros impulsados ópticamente (no al alcance de nuestro sensorio); en iones atrapados; en cavidades QED; en resonancia magnética nuclear; y/o otros que se inventen en un futuro.

Esto es lo que podemos sacar como conclusiones científicas de nuestra investigación: que los principios o logos que gobiernan a la Computación Clásica no son los mismos con los que inteligibilizaremos la Computación Cuántica. Pero sus impactos filosóficos serán mucho más profundos.

La Computación fue vista, hasta el siglo XIX, como un proceso mental. Durante todo el siglo XX, como un proceso mecánico. Puede avizorarse ahora, que la Computación Cuántica se verá a partir del siglo XXI, que apenas comenzamos, como un proceso natural: pero no antropocéntrico, ni antropomórfico ni geocéntrico, como lo es en la Clásica y Mayz lo descubre en sus Fundamentos...

(16)

El diseño de una prueba formal de la inteligencia artificial en la

computación cuántica16

Este proyecto apenas se ha iniciado y persigue la construcción de un test mayziano en la Computación Cuántica siguiendo una argumentación similar a la que se empleó en Computación Clásica. Mayz aspira que la Meta-técnica (que para el dominio de la Computación es la Computación Cuántica, como hemos tratado de comprobar) traiga nuevas posibilidades a la Inteligencia Artificial... al desprenderse de las limitaciones humanas, con que hasta ahora se ha tratado. Y bajo tales expectativas organizamos un proyecto que considere nuevos paradigmas para la IA en la Computación Cuántica. Ya la profesora Gladys Marante Garrido exploró tales posibilidades como alternativa frente al estancamiento de los paradigmas más usados en la IA: el simbólico y el conexionista17.

Proyectos futuros

El Dr. Ernesto Mayz Vallenilla, en sus Fundamentos de la Meta-técnica [11], descubre dominios ilimitados para la investigación y cooperación entre filósofos, científicos y tecnólogos, con intereses comunes sobre los principios que rigen las fronteras de la tecno-ciencia18. En el presente trabajo sólo hemos esbozado algunos ejemplos de cómo

podría realizarse tal cooperación en el dominio de la Meta-técnica de la Computación, como los iniciamos en nuestra Universidad de manera multidisciplinaria.

Al respecto, hasta el presente, apenas hemos abordado la frontera en que termina la técnica de la Computación Clásica y comienza la de la Computación Cuántica. Y hemos conseguido un puente de comunicación formal entre ambas con la lógica matricial.

Pero, no sabemos si los lenguajes lógico-matemáticos, con sus teoremas de limitación, serán los más apropiados para una nootecnia, como aspira el Dr. Mayz. A fin de que ésta sea universal, para todo tipo de Meta-técnica y correspondiente técnica, en todos los dominios de la tecno-ciencia. Efectivamente, Mayz avizora ese lenguaje traductor, nootécnico, sin imágenes ni símbolos para suprimir toda influencia óptico-lumínica. La matemática misma debería ser refundada, según nos lo ha dicho el Dr. Mayz, para que no

16 Proyecto que llevan a cabo los profesores Gladys Marante y Alberto Castillo Vicci en la Unidad de

Investigación en IA del Decanato de Ciencias y Tecnología de la UCLA, subvencionado por el Consejo de Desarrollo Científico, Tecnológico y Humanístico (CEDCHT) de aquella Universidad.

17 “Un estudio sobre Computación Cuántica como nuevo paradigma para la Inteligencia Artificial”. UCLA,

Barquisimeto, 2000. Bajo la tutoría del profesor Alberto Castillo Vicci.

(17)

use necesariamente términos óptico-lumínicos... originados en los caracteres antropocéntricos, antropomórficos y geocéntricos de su evolución. Y aunque la búsqueda de un lenguaje universal para toda la ciencia −que desde Leibniz ha sido el sueño de muchos pensadores− dista hoy de ser una posibilidad por el carácter cada vez más especializado del conocimiento tecno-científico, algunos científicos piensan que la Computación pudiera ser la ciencia integradora de todas las ciencias... dado el carácter universal que como instrumento tiene [6]. O, aún más, si se la ve de una manera más profunda, tratando a las leyes de la Naturaleza como programas que se están ejecutando en el contenido material del universo: es decir, expuesto meta-teóricamente, como si las leyes de la Naturaleza fuesen el software que se ejecuta en el hardware de la materia cósmica [9].

Un resultado fructífero de una visión computacional de la naturaleza es que nos revela los motivos profundos del porqué la Naturaleza es inteligible para la mente humana; por qué la ciencia es posible y por qué las matemáticas son tan efectivas para la descripción de la alteridad [1]. De ser así, la investigación en la Computación Cuántica desde la perspectiva Meta-técnica de Mayz Vallenilla, como la búsqueda de la nootécnica correspondiente, es de fundamental importancia para la comprensión del desarrollo de la filosofía de la ciencia y la tecnología en el futuro, como de la epistemología misma. Nuestros trabajos de tal manera, no pueden ser más que apenas el inicio de otros proyectos por venir... necesariamente, más complejos y de mayor envergadura. Al respecto, como científicos y técnicos que somos, no podemos menos que ser fieles seguidores del pensamiento universal de este distinguido y perspicaz filósofo contemporáneo y, con orgullo decirlo, latinoamericano, que es el Dr. Ernesto Mayz Vallenilla, quien ha dedicado su vida, con sus lecciones, sus libros y sus desvelos a favor de una América Latina consciente de su identidad y sus virtualidades; como sus propias palabras lo anuncian, cuando sobre la Meta-técnica nos dice:

Todo ello significa desde ahora −tal como se verá en los tiempos por venir− una lenta pero inexorable implantación de nuevas modalidades, horizontes y límites, en el despliegue de la racionalidad humana y trans-humana... y, por supuesto, en la sintaxis de sus proyectos y gestas instituyentes. En algo tan aparentemente simple como esto −según pensamos− reposan los gérmenes del próximo futuro [14].

Referencias

1. BARROW, J.D. ¿Por qué el mundo es matemático? Grijalbo Mondadori. Barcelona, España. 1997.

2. CASTILLO V., Alberto. Crítica a la teoría computacional de la mente. Fondo Editorial de la Universidad Centro Occidental “Lisandro Alvarado”, Barquisimeto, Venezuela. 1997.

(18)

3. Ibidem, capítulo III.

4. CASTILLO A., D. JIMÉNEZ y A. VALLOTA. Técnica y Meta-técnica de la Computación. Fondo Editorial de la Universidad Centro Occidental “Lisandro Alvarado”, Barquisimeto, Venezuela. 2000.

5. DESCARTES, R. El discurso del método. Editorial Vosgos, S.A. 1975. Pp.: 80-83. 6. DEUTSCH, D. “The fabric of reality”. Pinguin Books, Gran Bretaña. 1997.

7. FLANAGAN, O. “The science of the mind”. The Bradford Books. MIT Press, Cambridge, Mass., 1984. Capítulo 6.

8. HAWKING, S. Agujeros negros y otros universos. Editorial Planeta, México. 1994. 9. JOHNSON, G. “All science is computer science”. TIME. 28/03/2001.

10. LUCAS, J. “The gödelian argument”. TRUTH a journal of modem thought. 1988. (Una versión más actualizada se encuentra en: Machines and Thought: The legacy of Alan Turing. Millican and Clark Editors, Oxford Press, 1996. Pp.: 103-123. “Minds, Machines and Gödel: a restropect”.

11. MAYZ VALLENILLA, E. Fundamentos de la Meta-técnica. Monte Ávila Editores, Caracas. 1990.

12. Ibidem. pp.: 84. 13. Ibidem. pp.: 31. 14. Ibidem. pp.: 19.

15. MAYZ VALLENILLA, E. Invitación al pensar del siglo XXI. Monte Ávila Editores, Caracas. Pp.: 127-128.

16. MILLICAN, P. y A. CLARK (Editors). Machines and thought: the legacy of Alan Turing. Claredon Press, Oxford. 1996.

17. POPPER, K. El universo abierto. Post Scriptum a la lógica de la investigación científica. Vol. III. Editorial Tecnos, Madrid, España. 1984.

18. Ibidem.

19. PUTNAM, H. “Representation and reality”. A Bradford Book. The MIT Press, Cambridge, Mass. 1988.

20. SEARLE, J. “Rediscovering of mind”. A Bradford Book. The MIT Press, Cambridge, Mass. 1992.

21. TURING, A. “Computing machinery and intelligence”. En: Mind and Machines. Anderson Editor, Prentice Hall, N. J. USA, 1964. Pp.: 4-30.

Referencias

Documento similar

No había pasado un día desde mi solemne entrada cuando, para que el recuerdo me sirviera de advertencia, alguien se encargó de decirme que sobre aquellas losas habían rodado

Y tendiendo ellos la vista vieron cuanto en el mundo había y dieron las gracias al Criador diciendo: Repetidas gracias os damos porque nos habéis criado hombres, nos

diabetes, chronic respiratory disease and cancer) targeted in the Global Action Plan on NCDs as well as other noncommunicable conditions of particular concern in the European

Luis Miguel Utrera Navarrete ha presentado la relación de Bienes y Actividades siguientes para la legislatura de 2015-2019, según constan inscritos en el

Fuente de emisión secundaria que afecta a la estación: Combustión en sector residencial y comercial Distancia a la primera vía de tráfico: 3 metros (15 m de ancho)..

La campaña ha consistido en la revisión del etiquetado e instrucciones de uso de todos los ter- mómetros digitales comunicados, así como de la documentación técnica adicional de

Products Management Services (PMS) - Implementation of International Organization for Standardization (ISO) standards for the identification of medicinal products (IDMP) in

This section provides guidance with examples on encoding medicinal product packaging information, together with the relationship between Pack Size, Package Item (container)