Вы находитесь на странице: 1из 49

CAP 3: ¿Puede una máquina reemplazar a un humano?

Para comenzar este capítulo empezaremos hablando sobre el ser filosóficamente,


la disciplina filosófica que la estudia es la Ontología.

ONTOLOGÍA

Es la parte de la filosofía que investiga en qué consiste el ser y cuáles son los
ámbitos o regiones del ser fundamentales.

Aunque este término se introduce en el siglo XVIII para indicar la ciencia del ser
en general (lo que Aristóteles llamó “filosofía primera” y luego recibió el nombre de
metafísica), la ontología ha sido una disciplina practicada por los filósofos desde el
comienzo mismo de su historia.
La ontología es la disciplina filosófica más importante. El resto de disciplinas
(antropología, teoría del conocimiento, teología racional...) dependen de un modo u
otro de ella. Etimológicamente la ontología se puede definir como el logos o
conocimiento del ente. Y de forma técnica se la suele definir como la ciencia del
ente en tanto que ente. Ente es todo aquello que tiene ser; del mismo modo que
llamamos estudiante a todo persona que estudia, o amante al que ama, ente es el
término que podemos utilizar para referirnos a las cosas en la medida en que éstas
poseen ser. Desde este punto de vista las piedras, los animales, las personas, Dios
mismo son entes puesto que poseen algún tipo de ser, aunque cada uno a su
manera. Los objetos matemáticos e incluso los meramente imaginados también
tienen un ser (estos últimos un ser ficticio o irreal).
Todas las ciencias o saberes se refieren o estudian los entes, unas los entes
físicos, como las ciencias físicas, otra los entes matemáticos, como la matemática,
otra los seres vivos, como la biología; pero se fijan en un aspecto particular de cada
objeto que estudian: la física estudia los seres físicos como las piedras y también el
cuerpo humano en la medida en que tienen dimensiones físicas; los biólogos, por el
contrario, estudian también al hombre pero en la medida en que está dotado de
ciertas actividades y funciones que llamamos vitales. La ontología también estudia
las piedras, los animales, los números, los hombres, pero fijándose en su ser, y
trata de establecer la dimensión o característica esencial que les define de ese
modo y no de otro. Esto es lo que quiere indicarse con la segunda parte de la
definición técnica de la ontología: la ciencia o saber relativa al ente en tanto que
ente, en tanto que dicho ente tiene o participa de alguna modalidad de ser. En este
sentido, la ontología es la ciencia más universal de todas puesto que se refiere a la
totalidad de las cosas y no hay nada que no caiga bajo su consideración.
Se han dado distintas respuestas a las preguntas básicas de la ontología (en
qué consiste ser y cuáles son los seres fundamentales); así, por ejemplo, para
Platón el ser consiste en ser eterno, inmaterial, inmutable y racional, y los seres
son de forma plena las Ideas; para Santo Tomás el ser consiste en ser eterno,
infinito y dotado de consciencia y voluntad, y el ser pleno es Dios; para Nietzsche el
ser consiste en cambio, temporalidad, nacimiento y muerte e irracionalidad y los
seres son los objetos del mundo fugaz de los sentidos.
Aunque desde el comienzo de la filosofía todos los filósofos defendieron una u otra
tesis ontológica, se suele indicar que es Parménides realmente el primero que de
forma explícita tiene un discurso ontológico, convirtiéndose así en el padre de la
ontología.
EL PROBLEMA ONTOLÓGICO DE QUINE

El filósofo Willard van Orman Quine presentó lo que él llamaba «el problema
ontológico» en su artículo Sobre lo que hay:

Un rasgo curioso del problema ontológico es su simplicidad. Puede formularse en


dos monosílabos castellanos: «¿Qué hay?». Puede además responderse en una
sola palabra: «Todo», y todos aceptarán esta respuesta como verdadera. Sin
embargo, esto es sólo decir que hay lo que hay. Queda lugar para discrepancias en
casos particulares; y así la cuestión ha persistido a través de los siglos.

En general, cada uno de estos "casos particulares" presenta un problema distinto.


Desde la segunda mitad del siglo XX, el naturalismo imperante ha determinado que
los debates metafísicos sean principalmente acerca de la existencia o no de todo
aquello que parece entrar en conflicto con la descripción del mundo provista por
las teorías científicas más exitosas. Esto se refleja en la elección de algunos de los
casos que se mencionan a continuación:

 Las entidades abstractas: Es ampliamente aceptado que las ideas se


conciben según se articulan por la cognición de cada individuo en una de dos
categorías: como entidades abstractas, o como entidades concretas. 8
Los números, los conjuntos y los conceptos son algunos ejemplos de entidades
que intuitivamente clasificamos como abstractas, mientras que el
planeta Venus, este árbol y aquella persona son ejemplos intuitivos de
entidades concretas. Sin embargo, todavía no existe un criterio aceptado para
decidir cuándo una entidad es abstracta y cuándo concreta, aparte de la
intuición. Además, tampoco existe acuerdo sobre si las entidades abstractas
siquiera existen, y en caso de que existan, sobre cuáles existen.
 Las entidades del sentido común: Al encontrar una silla, ¿debemos decir que
lo que hay en el mundo es una silla? ¿O sería más correcto decir que lo que
hay, estrictamente hablando, es un montón de moléculas? ¿O quizás un
montón de átomos?10 Y está claro que este argumento puede extenderse a
muchas otras entidades del sentido común.
 Los universales : (también llamados propiedades, atributos o cualidades)
son los supuestos referentes de los predicados como "verde", "áspero", "amigo"
o "insecto". La existencia de los universales se postula para justificar nuestra
manera de hablar acerca de los individuos. Así por ejemplo, estamos
justificados en decir de una planta que "es verde", porque la planta posee el
universal verde, o alternativamente porque el universal verde está presente en
la planta. Además, podemos decir de varias cosas que "son todas verdes",
porque el universal verde, siendo algo distinto de las cosas, está, sin embargo,
presente en todas ellas. El problema de los universales es acerca de si los
universales existen, y en caso de que así sea, cuál es su naturaleza: si existen
en las cosas (in re), o independientemente de ellas (ante rem), o en nuestra
mente, por mencionar algunas posturas.

 La mente y lo mental: Al abrir una cabeza, lo que vemos no es una mente, con
pensamientos, ideas y recuerdos, sino materia. ¿Será que lo mental es una
ilusión, y que todo lo que hoy describimos en términos mentales
puede reducirse a los procesos físicos que observa la ciencia? ¿O será que lo
mental es algo efectivamente existente, inmaterial e inobservable? 7 Para un
poco más de discusión, véase El problema mente-cuerpo.
 Los agujeros: A primera vista, los agujeros están "hechos de nada". ¿Cómo es
posible, pues, referirnos a ellos como si fueran objetos comunes? ¿Cómo es
posible percibirlos? ¿Qué percibimos?13

La mirada Ontológica de Martin Heidegger

La mayor contribución filosófica de Martin Heidegger (1889-1976), el filósofo más


importante del siglo XX, consiste, en nuestra opinión, en haber levantado lo que
llamamos la pregunta ontológica, la pregunta por el carácter de la realidad, y
ofrecernos una respuesta que corregía aquella que en el pasado nos habían
ofrecido los antiguos metafísicos griegos.

Heidegger inicia su práctica filosófica como discípulo de Husserl (1859-1938). Ello


implica que, en un principio, asume la orientación fenomenológica de su maestro.
Pronto, sin embargo, le dará a ésta última un giro que progresivamente lo alejará
de los planteamientos de Husserl. Para éste, el foco de su atención estaba puesto
en las experiencias de conciencia o, si se quiere, en la conciencia de las
experiencias. Heidegger intuye que el punto de partida de la reflexión filosófica
debiera ser anterior, de manera de situar la conciencia en las condiciones
existenciales que son inherentes a los seres humanos, condiciones desde las
cuales ella emerge y se configura de la manera como lo hace.

Como filósofo moderno, Heidegger suscribe la posición de que no observamos la


realidad tal cual ella es, como lo presumían los antiguos metafísicos, sino tal como
ella se nos presenta a los seres humanos. La pregunta ontológica por el carácter
de la realidad, debe iniciarse desde el ser humano, tal como lo habían reconocido,
Descartes (1596-1650), Hume (1711-1776) y Kant (1724-1804), hijos todos de la
Modernidad.

En este sentido, es interesante establecer un contrapunto entre Descartes y


Heidegger. Descartes reconocía que su reflexión filosófica debía partir desde sí,
desde su propia práctica. Ello lo conducía a arrancar su concepción de su práctica
reflexiva como filósofo. De allí que una de sus primeras premisas sea “pienso,
luego existo”.
Heidegger objeta ese punto partida. Desde su perspectiva, la práctica reflexiva del
filósofo, es una derivada de otras más concretas y cotidianas de los seres
humanos. Ello implica que es de estas últimas que es preciso arrancar y no de la
aquella que arranca del pensar del filósofo. Y eso es precisamente lo que hace.
Como filósofo, se pone en el lugar de los seres humanos comunes y corrientes,
procurando determinar cómo éstos configuran la realidad. En vez de colocarse en
el lugar del filósofo, Heidegger opta por situarse en el lugar del carpintero. Su
análisis, a este respecto, se presenta en su obra más destacada, Ser y tiempo.

Heidegger sustenta su reflexión examinando lo que él llama el Dasein. Este es un


término que en alemán significa ser-ahí y que el filósofo concibe como ser-en-el-
mundo o el ser en su práctica cotidiana de existir. Para Heidegger el Dasein es la
unidad básica de la que es preciso partir y que se presenta, inicialmente, como una
unidad indivisible.

Ello implica que, en un comienzo, no es posible separar al ser humano de su


mundo. No hay un ser humano que no lo traiga consigo, así como no hay un
mundo que no se constituya en relación a un ser humano. Existe por lo tanto una
importante diferencia entre la noción de mundo y las nociones de realidad exterior
o, si se quiere, de universo físico. El primero, para Heidegger, es un término que
pertenece al dominio de la existencia humana. Es sólo luego de haber aceptado la
unidad del Dasein, del ser-en-el-mundo, que podemos ahora explorar el tipo de ser
que en tal mundo constituye y el tipo de mundo que emerge a partir del ser que así
lo constituye.

Uno de los atributos que Heidegger le confiere al Dasein es el que se trata de un


ser que se encuentra a sí mismo arrojado en la existencia, en un mundo ya en
marcha, que impone determinadas formas de conferir sentido, que es social y que
está constituido en la historia. El Dasein no escoge ser. El Dasein se encuentra ya
siendo, existiendo, en un mundo que es social e histórico; donde se imponen
determinadas formas de conferir sentido y a partir de las cuales el propio Dasein
debe determinar el sentido de su existencia y de sí mismo. De allí que, en el
Dasein, ser y mundo se encuentren indisolublemente ligados.

Para Heidegger otro de los atributos del Dasein es ser “un ser que, en su ser, se le
va el ser”. Muchos se sentirán desalentados al escuchar esa frase que tiene la
apariencia de una “jerigonza filosófica”, de un extraño gargarismo. Pero tomémosla
con benevolencia y examinemos lo que el filósofo busca expresar. Traduzcamos
esa hermética frase al sentido común. Con ella, Heidegger procura señalarnos que
el ser humano es un ser que se ve obligado a hacerse cargo de su ser, sin lo cual
su ser corre el peligro de desintegrarse, de dejar de ser. De no hacerse cargo de su
ser, éste “se le va”.

Ya Blaise Pascal (1623-1662) nos había advertido que la grandeza del ser humano
consistía en saberse miserable. Heidegger sigue esa misma línea de reflexión. El
ser humano se sabe inmensamente precario y vulnerable y está obligado a
reconocer que, de no hacerse cargo de sí mismo, pierde su ser. El ser humano vive
con conciencia del peligro de su muerte y ello le impone hacerse responsable de su
existencia. Esto, según Heidegger, es un rasgo propio del Dasein.

Ello implica que la relación del ser humano con su mundo está atravesada por este
imperativo de tener que hacerse cargo de sí mismo. Esto lo vemos expresarse de
distintas formas en la filosofía de Heidegger. Por un lado, a través de su
reconocimiento de que a los seres humanos las cosas “nos importan”, “nos
preocupan”, “nos inquietan”. No nos da lo mismo lo que pase y vivimos con
conciencia de esta suerte de desasosiego que surge de la necesidad de hacernos
cargo del ser que somos.

Por otro lado, esta misma idea dará cuenta de una noción que es central en la
filosofía de Heidegger. Ella se expresa en el término alemán Sorge. Se trata de un
término de no fácil traducción al castellano. Ello no sucede en inglés que lo traduce
por “concern”, aquello que nos concierne. En castellano tenemos el verbo
concernir, pero carecemos del sustantivo correspondiente. Una manera habitual de
traducirlo ha sido como “preocupación”. Pero siempre me he sentido incómodo con
esta traducción, pues le confiere al término alemán de Sorge una carga negativa,
que en mi parecer lo distorsiona. En razón de ello, he preferido traducirlo como
inquietud, término que considero menos negativo.

La noción de inquietud está relacionada con otras nociones que le son solidarias.
Baruch Spinoza (1632-1677) nos hablaba de “deseo”. Pero podemos hablar
también de interés, de búsqueda de satisfacción, etc. Lo que cabe destacar es el
hecho de que nuestra mirada al mundo no es una mirada neutral, sino siempre una
mirada interesada. A partir de este reconocimiento, queda descartada la posibilidad
de un conocimiento objetivo de la realidad. Por el contrario, accedemos a la
realidad a través de interpretaciones en las que las inquietudes y los intereses de
los seres humanos y la realidad se yuxtaponen en una co-participación mutua, cuyo
resultado es el mundo que los seres humanos configuran y en el que participan.

El mundo que configuramos lo constituimos en razón de nuestras inquietudes.


Nuestra mirada está atravesada por nuestras inquietudes. Nuestras
interpretaciones y las acciones que en él emprendemos, conllevan esta dimensión
de tener que hacernos cargo de nosotros mismos y de nuestras inquietudes que
surgen a partir de ello. Esto representa una premisa central de la filosofía de
Heidegger.
¿De dónde provienen esas inquietudes? En primer lugar, del imperativo antes
mencionado de tener que hacernos cargo de nuestra existencia, de esa relación
concreta que todo ser requiere establecer con su mundo para “preservar” el ser, la
vida, como nos diría Spinoza. Pero, tales inquietudes asumen formas y expresiones
muy diversas las que simultáneamente remiten a las condiciones históricas y
sociales en las que los seres humanos se desenvuelven. Es a partir de la sociedad,
de su cultura, de su tiempo, de las clases sociales a los que los individuos
pertenecen, que ellos articulan sus inquietudes. Los individuos, nos advierte
Heidegger, son seres sociales e históricos y para comprender cómo ellos
comprenden su existencia, configuran sus mundos y se desenvuelven en ellos, es
preciso desentrañar sus condiciones históricas y sociales.
La cultura es el soporte desde el cual se establece la relación de los seres
humanos con el mundo. Ella provee una pre-comprensión, un pre-conocimiento
que los seres humanos configuran a través de sus interpretaciones. Todo
conocimiento pre-supone, como condición de posibilidad, un pre-conocimiento.
Esta premisa será desarrollada posteriormente por la hermenéutica, por la filosofía
de los actos interpretativos y, muy particularmente por la filosofía de Hans-Georg
Gadamer (1900-2002), discípulo de Heidegger.

Sólo podemos conocer lo que previamente pre-conocíamos. Los supuestos, en vez


de ser considerados como un obstáculo del conocimiento, son vistos, por el
contrario, como una pre-condición necesaria de todo conocimiento. Dicho de otra
forma, sólo observamos un mundo si éste nos interesa previamente, si nos
dirigimos a él confiados en que puede proporcionarnos la satisfacción a nuestras
inquietudes. No tenemos cómo abrirnos a lo que nos es completamente ajeno, a lo
que no logramos vincular a lo que nos inquieta. El proceso de hacer sentido se
sustenta inexorablemente en nuestras inquietudes.
La necesidad del Dasein de hacerse cargo de su ser, lo impulsa necesariamente
hacia la acción. Ello permite concebir la filosofía de Heidegger como una filosofía
de la acción. La acción es la manera concreta en la que los seres humanos nos
hacemos cargo de nuestras inquietudes. Pero esta relación permite ser invertida.
Toda acción humana remite a una inquietud. La acción es la manera como los
seres humanos responden a sus inquietudes. Dicho de otra forma, el sentido de
toda acción humana, por lo tanto, está en la inquietud.

Esta relación entre la acción y la inquietud por un lado ilumina el carácter de la


acción humana, pero simultáneamente lo oscurece. La inquietud no es un “ente”,
un algo, que podamos identificar directamente. Nadie puede hacerlo, ni siquiera el
sujeto mismo de la acción. Toda inquietud siempre se configura como resultado de
una acción interpretativa. Ella no posee una existencia independiente ni mucho
menos objetiva. Se trata tan sólo de un punto de referencia a partir del cual
podemos conferirle sentido a la acción. Y, como tal, ella se revela como
interpretación.

Al reconocerlo así, las inquietudes que un individuo – sujeto de las acciones en


cuestión – invoca para conferirle sentido a su actuar no son necesariamente más
adecuadas que aquellas que eventualmente otro pueda atribuirle.

A partir de la ontología desarrollada por Heidegger se cuestiona muy


profundamente la noción de una realidad objetiva tal como ella aparecía en el
programa metafísico y en múltiples otras filosofías posteriores que, de una u otra
forma, siguen influidas por él. Con Heidegger se consolida finalmente un tipo de
ontología muy diferente de la metafísica.

El filósofo italiano Gianni Vattimo (1936) opone dos ontologías. Por un lado, la
ontología metafísica, sustentada en su correspondiente concepto de verdad,
concebido como correspondencia con una realidad objetiva. Por otro lado, la que
denomina una ontología hermenéutica, sustentada en el concepto de
interpretaciones (desde el cual se habilitan conceptos de verdad muy diferentes),
que prescinden de la noción de realidad objetiva. En esta segunda, tal pretensión
de objetividad queda bloqueada desde un principio.

La filosofía de Heidegger arranca del pronunciamiento hecho previamente por


Nietzsche de que “no hay hechos, sólo interpretaciones”, para luego sostener “y
también esto es una interpretación”. Para Heidegger, el Dasein y, con él, los seres
humanos, vivimos en mundos interpretativos y no tenemos ninguna posibilidad de
salir de ellos. Toda interpretación se sustenta en interpretaciones y éstas, a su vez,
se sustentan en interpretaciones, y así sucesivamente, conformando tradiciones
interpretativas que su suceden en el devenir del tiempo histórico. No existe un
punto inicial de partida, no hay otro punto de apoyo que las propias
interpretaciones. Por lo tanto, no hay fondo, no hay piedra de toque. El ser
trascendente de la metafísica que todo lo sustentaba se ha esfumado en el
horizonte heideggeriano. Esta postura ontológica no puede sino conferirle una
importancia central al lenguaje. El lenguaje, nos dirá Heidegger, es la morada del
ser.

Volvamos por un momento, a la idea inicial de que estamos compelidos a hacernos


cargo del ser que somos, que ello nos impulsa a la acción y que ésta última, remite
a inquietudes que buscan ser satisfechas. Desde esta perspectiva, se configura
nuestra mirada al mundo. En efecto, si aceptamos lo que acabamos de señalar
podemos ahora comprender el carácter de esa mirada. Ella se define por desplegar
nuestra capacidad de observación del mundo viendo en él recursos u obstáculos
para la satisfacción de nuestras inquietudes. Se trata de una mirada que
posibilidades, oportunidades, problemas y amenazas, en lo que todo está puesto
en referencia a este imperativo de hacernos cargo. Ello le imprime al mundo
humano un inevitable sesgo utilitario.

Digámoslo de otra forma. Las casas, los caminos, las mesas, las sillas, las camas,
los libros, etc., que pueblan nuestra cotidianidad, sólo se conforman en cuanto tales
a partir de nuestras inquietudes de trasladarnos de un lugar a otro; de cobijarnos
frente al frío, el calor, la lluvia y el viento; de descansar; de sentirnos cómodos al
comer y trabajar; de aprender y entretenernos, etc. Fuera de la constelación de las
inquietudes humanas, ninguno de esos objetos existe. Es a partir de las
inquietudes humanas y de la búsqueda de hacernos cargo de nosotros mismos,
que tales objetos se configuran como tales.

Pero ellos no sólo se configuran en nuestra mirada, también se configuran como


productos de nuestras acciones. No sólo los observamos así. De la mima manera,
los producimos como tales. A partir de esas mismas inquietudes, buscamos
generarlos, para así apaciguarlas y expandir nuestros niveles de satisfacción. Y no
se trata de buscar la satisfacción de nuestras necesidades. La noción de necesidad
es objetivante. Supone que ella existe, de manera casi independiente de quién la
invoca. Al hablar, en cambio, de inquietudes estamos conscientes de situarnos en
un espacio interpretativo, abierto, sujeto a interpretaciones distintas de las que hoy
prevalecen. Nos permite inventar modalidades de hacernos cargo que previamente
no identificábamos. Nos abre a la construcción de nuevas inquietudes que
proyectamos en el futuro.

La noción de inquietud (Sorge) tiene otros efectos en nuestras formas de hacer


sentido. Ellas no sólo configuran el mundo de una determinada manera.
Simultáneamente configuran la manera como estamos en él y el carácter de lo que
estamos haciendo. Los seres humanos tenemos múltiples inquietudes y desde
cada una de ellas nuestro quehacer permite ser interpretado de manera diferente.
Nuestras inquietudes hacen de claves interpretativas distintas del sentido de lo que
en un determinado momento estamos viviendo. Si alguien nos preguntara qué
estamos haciendo en un momento dado, daremos respuestas muy distintas de
acuerdo a la inquietud que escojamos para responder. Ello implica que nuestro
posicionamiento en el mundo, en un momento particular, no es uno, sino múltiple,
de acuerdo a la inquietud que utilicemos para determinarlo.

Me parece importante reiterar la centralidad de la noción de interpretación. Para


ello opto por apoyarme en una idea apuntada por Nietzsche: el que una
interpretación se imponga sobre otra no es función de su verdad, sino de su poder.
Ello nos obliga a movernos en una dirección que no suele ser habitual. ¿Qué
significa poder? ¿Cómo se conjuga? Me inclino por hacerlo en dos direcciones.

En primer lugar, entiendo poder como dominación o subordinación de unos


individuos sobre otros. En este sentido, hay interpretaciones que se imponen como
expresión del interés de poder que unos mantienen sobre los demás. Ello se
acerca a la noción marxista de ideología, a la noción gramsciana de hegemonía o a
la separación que el propio Nietzsche hace entre amos y esclavos o entre hombres
libres y miembros del rebaño.
Pero, por otro lado, la noción de poder apunta a la capacidad de acción efectiva, a
la capacidad de generar resultados que generan niveles superiores de satisfacción
y que son interpretados como formas más eficaces de hacernos cargo. En esta
segunda acepción la idea de dominación o de subordinación no está
necesariamente presente. Pues bien, es en ese doble sentido que el poder es lo
que determina que una interpretación se imponga sobre otra. La noción metafísica
de verdad pareciera sobrar.

Hay otros aspectos de la mirada ontológica de Heidegger que es preciso no olvidar.


Orientados por el imperativo de hacernos cargo y de satisfacer nuestras
inquietudes, los seres humanos cuando observamos el mundo, no vemos en él
todo cuanto pueda estar presente. Nuestra mirada no sólo transforma en recursos
lo que puebla el mundo, en medios para obstruir o satisfacer nuestras inquietudes,
sino que suele simplemente prescindir de observar todo cuando resulta indiferente
a aquello y al sentido de la acción que estamos emprendiendo. Lo que es
indiferente a lo que buscamos deviene, nos dice Heidegger, transparente. Pasa
casi desapercibido.

Heidegger pone en cuestión la noción de que basta que algo esté presente para
que pueda ser observado. Sólo adquiere presencia lo que es relevante en nuestra
búsqueda de hacernos cargo. Pero basta que algo que previamente no veíamos se
convierta (sea considerada) en posibilidad o en obstáculo, para que adquiera la
capacidad de lograr ser plenamente observada. Demos un ejemplo clásico. Nos
precipitamos por la escalera para buscar algo que se encuentra en el segundo piso.
Al subir por ella, prácticamente no observamos los escalones. Tenemos sobre ellos
un nivel de conciencia extremadamente bajo. Pero basta que nos tropecemos, para
que de inmediato se produzca un giro en nuestra conciencia y para que los
escalones que previamente eran transparentes ahora pasen a un primer nivel de la
conciencia.

Lo que hace que algo que previamente era transparente pase súbitamente a ese
primer nivel de la conciencia, es lo que Heidegger denomina un quiebre por cuanto,
precisamente, “rompe” la transparencia anterior. El quiebre altera el fluir en el que
previamente nos encontrábamos y trae consigo un mundo diferente a la conciencia.
Uno de sus efectos más importantes es que, a partir de tal quiebre, podemos ahora
reorientar las acciones que estábamos realizando previamente. En otras palabras,
podemos ahora buscar formas diferentes de hacernos cargo. El quiebre permite
reorientar nuestras acciones. De la misma manera, altera las inquietudes que antes
nos orientaban. Lo que antes estaba en un espacio de transparencia, ahora ocupa
un espacio de presencia.

Un quiebre puede surgir de dos maneras diferentes. Por un lado, como expresión
del mero acontecer en un determinado proceso de hacernos cargo. Se rompe el
escalón y ello produce un quiebre. Aparece un obstáculo inesperado y ello
constituye un quiebre. Pero los seres humanos tenemos también el poder de
“declarar” quiebres. De pararnos frente a lo antes aceptábamos sin mayores
problemas y declararlo “insatisfactorio”; de decir “basta” frente a lo que antes nos
resignábamos. De declarar “¡No más!”. Al hacerlo, abrimos un horizonte de
posibilidades diferente y podemos tomar acciones que nos conduzcan hacia un
futuro distinto, que interpretamos como un futuro mejor.
Vivir la vida haciéndonos cargo del ser que somos y proyectándolo hacia el futuro,
equivale a vivirla desde la autenticidad, aceptando su finitud y la inevitabilidad de la
muerte. Ello es la fuente del sentido de vivir. Los seres humanos, sin embargo,
podemos optar por una vida inauténtica, que le da la espalda a la facticidad de la
existencia. Esta vida inauténtica da lugar a un importante concepto de la filosofía
de Heidegger: el concepto de das Man. Éste implica una vida vivida desde el “se” y
no desde la autenticidad del ser. De esta forma, optamos por lo que “se” hace, nos
vestimos como los demás “se” visten, estudiamos lo que “se” estudia, leemos lo
que “se” lee, etc. En rigor, delegamos en ese “se” impersonal el imperativo de
hacernos cargo del carácter único de nuestro propio ser. Con ello, conducimos una
vida vivida vicariamente, como espejo de la imagen que nos hacemos de los
demás. No obstante, frecuentemente, despertamos desde esta inautenticidad y nos
vemos obligados a enfrentar a ese ser que hemos descuidado.

El futuro que nos vaticina la ficción

Si consideramos el concepto de Inteligencia Artificial empleado por Alan Turing y


la construcción de su dispositivo Bombe, que permitió descifrar los códigos de la
máquina alemana Enigma.

En un momento dado del film 'The Imitation Game' (Morten Tyldum, 2014), en el
que Benedict Cumberbatch interpreta al célebre matemático, un detective le
pregunta: '¿Podrán las máquinas algún día pensar como los humanos?'. A lo
que él responde: 'La mayoría de la gente piensa que no'.

Desde luego que las máquinas no pueden pensar como las personas. Son
diferentes, y piensan diferente. La cuestión es: 'por el hecho de que algo sea
diferente, ¿significa que no puede pensar?'. El detective le interpela entonces por el
título de su artículo, 'The Imitation Game'. 'Es un juego, un test para determinar si
alguien es un ser humano o una máquina', indica Turing. 'Hay un tema general.
Un juez pregunta, y a partir de las respuestas, decide si habla con una
persona o una máquina'. La escena quizá sea inventada, pero su contenido es
real. El test existe.

Ramón López de Mantarás, director del Instituto de Investigación en Inteligencia


Artificial del CSIC, es uno de los más reconocidos expertos españoles en robótica e
IA.'No', responde a MUY. Y añade: 'No sé qué pasará dentro de cientos de años,
pero todo este tema del que se habla, la singularidad, la trascendencia, que habrá
máquinas con consciencia y cualidades mejoradas con respecto a
la inteligencia humana en cuestión de treinta o cuarenta años no tiene
sentido... Nunca he visto un argumento científico que lo apoye'.

El punto de vista de López de Mantarás encaja con lo que sentí hace tantos años,
en mi frustrante visita a Pittsburgh. El mundo ha cambiado mucho desde entonces,
pero lo cierto es que aún no se vislumbran las máquinas que acabarán siendo
conscientes de sí mismas para desencadenar la catástrofe, como ocurre en las
películas de la saga Terminator.
Discrepa así de gurús como el futurólogo Raymond Kurzweil, que hoy trabaja en
la división de Ingeniería de Google. Al igual que Moravec, este está convencido de
que durante este siglo los robots serán capaces de pasar el citado test de Turing,
incluso antes de 2029. Pues bien, no sería la primera vez que se cumple una de
sus predicciones.

A finales de los 80, Kurzweil aseguró que hacia 1998 un ordenador ganaría a
un campeón mundial de ajedrez: ocurrió en 1996, cuando Gari Kasparov
perdió una partida contra el programa informático de IBM Deep Blue. En esos
años, también imaginó que Internet, por entonces una red relegada a instituciones
académicas, se extendería por el mundo. Ahora afirma que en 2045 las
computadoras serán mucho más potentes que todos los cerebros humanos de la
Tierra juntos. Cuando habla, los medios caen rendidos ante ese mundo artificial.
'Es una persona muy mediática', concede López de Mantarás. 'Pero detrás no hay
nada científico'.

Marvin Minsky, cofundador del Laboratorio de Inteligencia Artificial del Instituto


Tecnológico de Massachusetts (MIT), galardonado por la Fundación BBVA, sí
cree que se desarrollarán máquinas tan inteligentes como los humanos. 'No
obstante, el tiempo que esto lleve dependerá de si se trabaja en los problemas
adecuados y del dinero', manifiesta Minsky. 'Es un enfant terrible', asegura
López de Mantarás, que estuvo en el congreso que el MIT celebró en su honor.

'Minsky piensa que los grandes avances en este campo se realizaron entre los 60 y
los 80, y luego se abandonaron todas las ideas con respecto a la IA en su sentido
general'. Así, lo que habría quedado en el panorama actual es la
especialización, máquinas que son extraordinarias jugando al ajedrez, pero
que no saben nada de las damas o el parchís. 'Las IA especializadas son un
buen negocio, y estoy a favor de ellas. Faltaría más. Es lo que es realmente la
inteligencia artificial hoy en día', indica López de Mantarás.

¿Constituirán una amenaza los robots autónomos capaces de atender


nuestras necesidades?

Si hacemos caso a Elon Musk, el visionario magnate que fundó PayPal, la


compañía de vehículos eléctricos y baterías Tesla o la corporación espacial
privada SpaceX, la humanidad se enfrenta a una nueva y formidable amenaza:
la inteligencia artificial (IA). “Es como esas historias en las que alguien convoca al
demonio. Siempre hay un tipo con un pentáculo y agua bendita convencido de que
así podrá controlarle, y claro, no funciona”, señala.

Su preocupación tiene mucho que ver con el dinero. Los pesos pesados del sector
tecnológico están apostando fuerte en este sentido. Google, por ejemplo, adquirió
la empresa DeepMind, especializada en el desarrollo de redes neurales en la que
ya había invertido Musk. El gigante de las búsquedas trabaja en un sistema
informático capaz de distinguir en un vídeo una cara humana de la de
un perro, gente patinando o durmiendo, un gato... Y todo por sí solo y sin que
nadie haya puesto etiquetas en el archivo previamente. La inversión en inteligencia
artificial es tal, que hoy en día podemos disfrutar de asistentes digitales que nos
facilitan muchas labores del día a día como es es caso de Echo de Amazon.

La idea es que vaya aprendiendo, por así decirlo, tras 'alimentarse con millones de
grabaciones'. IBM, por su parte, afina su superordenador Watson, que en 2011
derrotó a los campeones humanos del concurso estadounidense de preguntas y
respuestas 'Jeopardy!'. Su intención es mejorar las funciones cognitivas del
ingenio y comprobar sus capacidades para realizar diagnósticos
médicos, análisis de la personalidad y traducciones en tiempo real. Los ingenieros
de Facebook no se quedan atrás y han ideado un algoritmo que permite reconocer
un rostro con éxito el 97 % de las veces, aunque haya sido mal captado.

Musk asegura que las cosas van demasiado rápido, y que por eso la IA es una
tecnología que puede resultar tan peligrosa como los maletines nucleares. En el
coro de los agoreros del apocalipsis artificial destaca la voz del filósofo
británico Nick Bostrom, de la Universidad de Oxford, que compara nuestro destino
con el de los caballos, cuando fueron sustituidos por los automóviles y los
tractores. En 1915, había en EE. UU. unos veintiséis millones de estos
equinos.En la década de los cincuenta, quedaban solo dos millones. Los caballos
fueron sacrificados para venderse como comida para perros. Para Bostrom, la IA
supone un riesgo existencial para la humanidad comparable con el impacto de
un gran asteroide o el holocausto nuclear. Todo ello, por supuesto, siempre que
podamos construir ordenadores pensantes. Pero ¿qué significa exactamente esto?

La Inteligencia Artificial vista desde la filosofía y la teología

1. Introducción

¿Puede un robot tener alma? Quizás sea esta una de las preguntas que vienen a
la mente de cualquier persona interesada en cuestiones de fondo sobre la
inteligencia artificial (IA). Bastaría espigar los relatos de ciencia ficción sobre robots
para darnos cuenta de porqué la pregunta no puede ser postergada. Si
rechazamos la visión del fantasma en la máquina, del homúnculo y del Dios
intervencionista no parecería haber razones a priori que lo impidan: o bien el alma
está ya en la naturaleza como principio irreducible, o bien es un epifenómeno.
Tanto en uno como en otro caso, no parece imposible ensamblar materia capaz de
pensar y querer, actividades superiores reservadas tradicionalmente al alma
humana inmortal.

Ciertamente, con los desarrollos actuales en el campo de la IA parece que nos


encontramos en una situación nueva, difícilmente imaginable en otra época de la
historia. No se trata evidentemente de que filosofemos desde cero, pero sí que lo
hagamos teniendo en cuenta la realidad de los avances técnicos. La IA es testigo
de un incremento exponencial en su utilización de artefactos y aplicaciones y,
aunque no estemos en absoluto cerca de construir una máquina que tenga las
capacidades de un ser humano o que sea capaz de actuar “racionalmente” en
todos los escenarios posibles, hay cada vez más algoritmos para multitud de tareas
en una gran variedad de dominios (Bringsjord and Govindarajulu 2018).

Ahora bien, ¿qué se entiende habitualmente por filosofía de la IA? Poco podemos
decir respecto a la automatización de procesos susceptibles de ser reproducidos
como algoritmos que, a fin de cuentas, no son más que una ayuda para otras
actividades más propiamente humanas. Ayudar no es sustituir. No se trata por
tanto de abordar el hecho incontrovertible de si las máquinas pueden ayudar en
actividades humanas, sino la cuestión más controvertida acerca de si pueden
pensar, desarrollar una conciencia o llegar a ser libres. Según la entrada de
la Stanford Encyclopedia of Philosophy, el campo de la IA puede definirse como el
ocupado en la construcción de un artefacto capaz de pasar el test de Turing. Y, de
manera más general, puede definirse como el de las máquinas que piensan y/o
actúan de manera humana y/o racional. (Bringsjord and Govindarajulu 2018).
La afirmación de que las máquinas podrían actuar como sifueran inteligentes es
denominada la hipótesis de la IA débil, mientras que la afirmación de que las
máquinas que actúan así, en realidad están pensando (y no solo simulanel
pensamiento) se denomina la hipótesis de la IA fuerte. Y no está de más tener en
cuenta que la IA se fundó asumiendo que, al menos, la IA débil es posible (Russell
and Norvig 2009, 1020). Hay que tener en cuenta, además, que la primera
conjetura acerca de los procesos mentales requeridos para producir un
comportamiento dado suele ser errónea (Russell and Norvig 2009, 1022). Por eso
se antoja extremadamente difícil para los filósofos derrocar a la IA en su versión
débil —construir máquinas que parecen tener todo el repertorio mental y el
comportamiento de los seres humanos. ¿Qué razón filosófica puede oponerse a
que la IA produzca artefactos que aparentan ser animales o incluso humanos?
(Bringsjord and Govindarajulu 2018)
Alan Turing apostaba a que con el tiempo, la distinción entre IA débil y fuerte se
disolvería. Pero quizás eso es mucho apostar, aunque solo sea por el hecho de
que para nosotros, seres humanos, sigue teniendo todo el sentido una distinción
fuerte entre interioridad y exterioridad, entre realidad y simulación. Puede no ser
imposible simular el comportamiento humano, pero las cuestiones referidas a la
autoconciencia, el conocimiento (saber que se sabe), las emociones o la
intencionalidad continúan siendo cruciales en cualquier acercamiento realista a la
naturaleza humana. Evidentemente, todo ello toca también de lleno el llamado
problema mente-cerebro o, si se prefiere, el problema de la naturalización de la
mente humana.

2. Las objeciones tradicionales contra las pretensiones de la IA

Es usual considerar tres grandes grupos de críticas contra las pretensiones de la


IA. Me centraré ahora en los dos primeros —los argumentos derivados de los
teoremas de Gödel y de la habitación china de Searle— porque apuntan más
directamente a la cuestión del conocimiento, de la fundamentación del símbolo y de
la inmaterialidad. La tercera gran crítica tiene que ver, a su vez, con la crítica de la
inteligencia como simbólica (Dreyfus 1972)(Dreyfus and Dreyfus 1987)(Dreyfus
1992). En este último grupo podríamos incluir los argumentos que subrayan la
informalidad de los razonamientos humanos y el problema de la “cualificación”. No
obstante, los defensores de IA afirman que las imposibilidades de las que hablan
los Dreyfus son oportunidades de mejora para la IA y no imposibilidades reales
(Russell and Norvig 2009, 1024–26). Una crítica más actualizada en esta misma
línea tendría que ver con una confusión de los defensores de la IA, al menos en
sentido fuerte, respecto de la realidad. Para que la IA pudiera seguir avanzando se
haría necesario pasar de la perspectiva del pensamiento orientado a objetos a la
perspectiva del pensamiento orientado a eventos (Baer 2018).

2.1. Críticas “a la Gödel”

¿Es posible “mecanizar” la mente humana? Desde los descubrimientos de


Gödel en 1931 se ha desarrollado toda una línea crítica respecto de esta
posibilidad, iniciada por Lucas (Lucas 1961)y continuada por Penrose (Penrose
1989)(Penrose 1994). El punto fuerte de estas argumentaciones estriba en hacer
uso del teorema de incompletitud de Gödel para mostrar que existen verdades
accesibles a la mente humana que, sin embargo, quedarían fuera de lo que puede
alcanzar a demostrar como verdadero un algoritmo. Pero esta línea de
argumentación resulta criticada a su vez desde diversas perspectivas. Quizás la
más potente es la de los lógicos que ponen en evidencia ciertos presupuestos
críticos y usos implícitos de un tipo de lógica que restan universalidad a los
argumentos de Lucas y Penrose. A riesgo de hacer una simplificación, se podría
decir que los teoremas de Gödel conducen a un dilema lógico respecto de la
posibilidad de mecanizar la mente humana: o bien cualquier intento de mecanizar
la mente humana es inferior a las capacidades reales de la mente humana (no
necesariamente de cualquier mente humana); o bien podría ser superior, pero
inferior a un ámbito mental de verdades lógico-matemáticas, de corte platónico, no
necesariamente humano.

Las críticas a Lucas y Penrose han venido también del mundo más terrenal de los
defensores de la IA. Por una parte, se niega que un sistema inteligente tenga que
ser capaz de probar la verdad o falsedad de todas sus afirmaciones (ser
completamente consistente); por otra, es posible que también los humanos caigan
bajo la limitación que imponen los teoremas de Gödel (Russell and Norvig 2009,
1022–23). Ahora bien, aunque formal o lógicamente esas objeciones sean todas
relevantes, es problemático que no afronten el fondo del argumento de Gödel, que
tiene que ver con la recursividad y con la capacidad, en principio universal, de la
inteligencia humana para objetivar la realidad. Volveré sobre ello más adelante.

De una manera derivada pero en cierto modo natural, las objeciones inspiradas en
Gödel han llevado a introducir la relevancia de la mecánica cuántica y sus
interpretaciones para discernir los posibles límites de la IA. La cuestión es que la
mecánica cuántica y, en particular, el problema de la medida, podrían resultar
esenciales, en línea de principio, para resolver el problema mente-cerebro
(Sánchez-Cañizares 2014). Desde luego, parecen existir argumentos fuertes para
hacer incompatibles las diferentes versiones compatibilistas de la libertad con la
indeterminación ontológica de la naturaleza a la que apuntan las correlaciones
cuánticas tipo EPR (Sánchez-Cañizares 2017), cada vez mejor testeadas. La única
vía de salida para los deterministas extremos es la asunción de un
superdeterminismo que tiene poco de científico y mucho de metafísico. La otra cara
de la moneda es que quizás la IA haya de reconvertirse en IA cuántica.
La misteriosa y controvertida realidad del proceso de reducción (R) de la función de
onda podría ser clave para pasar de una IA en modo “clásico”, que solo simula la
inteligencia —sin tener capacidad interpretativa, de conocimiento o de
representación más allá de aquello que le ha sido implementado— a una IA
“cuántica”, capaz de verdadero conocimiento y agencia (Laskey 2018). Sin
embargo, el problema de fondo con el que chocamos una y otra vez llegados a este
punto es que R no explica qué es la inteligencia y la volición sino que, por el
contrario, asume que hay inteligencia y volición capaz de efectuar el proceso de
reducción R al establecerse, por ejemplo, una configuración experimental capaz de
obtener información sobre un sistema físico. De este modo, invocando a la
mecánica cuántica, ganamos espacio para un verdadero ejercicio de libertad (no
compatibilista) en una naturaleza fundamentalmente indeterminista, pero no nos
acercamos necesariamente a una comprensión naturalista de la inteligencia y
volición humanas.

2.2. La habitación china y el problema de la fundamentación del símbolo

Quizás el argumento más famoso para demostrar la imposibilidad de la IA, al


menos en su sentido fuerte, sea el de la habitación china de John Searle (Searle
1980). A pesar de las propuestas acerca de cómo podría llegar a “entender” un
robot, todas acaban cayendo en algún tipo de falacia o petición de principio, pues el
lenguaje (la comunicación simbólica) es crucial para la inteligencia. Sin embargo,
no parece existir un lenguaje “natural”, pues ni la semántica ni la sintaxis son
intrínsecas a la naturaleza según Searle (Searle 1997, 14–17)si no se da antes el
conocimiento.

Ya se argumentaba en 1988 que los sistemas de inteligencia artificial pueden ser


realmente sintácticos y la sintaxis correcta puede constituir una semántica. Mas
hemos de reconocer que las técnicas de aprendizaje en IA han avanzado
escasamente en el importante problema de construir nuevas representaciones en
niveles de abstracción superiores al vocabulario de entrada (Russell and Norvig
2009, chap. 27). El aprendizaje se considera, sobre todo, a partir del modelo de
obtención de una función que correlaciona correctamente parejas de datos, pero
esto no resuelve para las máquinas el problema del aprendizaje mediante la
lectura. Y el hecho es que o bien las máquinas obtienen “conocimiento” a través de
los seres humanos que codifican e insertan manualmente información, o bien
deberán ser capaces de leer y escuchar sin supervisión alguna.

El problema, evidentemente, tiene que ver con la interpretación, el conocimiento de


formas, y la capacidad —aparentemente innata en los humanos— de desarrollar de
modo natural y autónomo un lenguaje simbólico. Luciano Floridi ha explicado
brillantemente la dificultad del problema de la fundamentación del símbolo (symbol
grounding problem) en el contexto de la naturalización de la información y la
necesidad de pedir inicialmente el cumplimiento de la condición del “nulo
compromiso semántico” (zero semantic commitment), si se quiere de verdad
avanzar (Floridi 2011, 134–61). A mi modo de ver, este problema es insoluble, pues
ni siquiera la “semántica basada en la acción” (action-based semantics) propuesta
por el mismo Floridi (Floridi 2011, 162–81)se libra de circularidad en la
argumentación (Sánchez-Cañizares 2016). La impresión es que el argumento de la
habitación china sigue siendo bastante sólido, a pesar de su rechazo por parte de
los defensores de la IA fuerte, recayendo sobre estos últimos la carga de la prueba.
En cierto modo, las últimas discusiones giran en torno al papel de la complejidad en
la naturaleza y si esta, por si sola, es capaz de hacer que emerjan capacidades
superiores como la inteligencia, la conciencia o la libertad. Los defensores de un
materialismo no reduccionista, por ejemplo, critican el microfisicalismo usado en
argumentos clásicos como el de la habitación china o el argumento zombi de
Chalmers. Pero si el microfisicalismo no es cierto, como parece no serlo, se podría
abrir la puerta a la emergencia de la conciencia a través de la complejidad material
(Velasquez 2016), basada en la superveniencia nomológica. Parece que la
complejidad, como proceso, está ínsita en la naturaleza y que en esta se da la
aparición de ciertas leyes “formales”, que trascienden la pura materialidad o
especificidad de los sistemas (Mitchell 2009). El concepto de conciencia como
información integrada (Tononi 2008)resulta extremadamente sugerente a este
respecto, por su alianza con la idea de complejidad, pero sigue resultando muy
controvertido y ha sido criticado también desde presupuestos funcionalistas (Fallon
2017). La cuestión es que la complejidad, por sí sola, no parece suficiente para
explicar qué es la inteligencia o la intencionalidad (Deutsch 2011)(Barrett, García-
Valdecasas, and Sánchez-Cañizares, n.d.)

2da Crítica:

Una reflexión relevante, llegados a este punto, es la cuestión de si, en el fondo, es


necesario el acontecer de toda la historia del universo para que aparezca la
inteligencia. Ciertamente, no se pueden desechar a la ligera ideas como la de que
el universo mismo esté llevando a cabo una gran computación (Mitchell 2009, pt.
3), aunque solo sea por su solidaridad de base con las perspectivas
superdeterministas y el creciente número de artículos y ficciones al respecto. Pero
si estamos dentro de una gran computación, se trata, desde luego, de una
computación no algorítmica. Paradojas como la de Boltzmann (es más fácil,
estadísticamente hablando, producir cerebros humanos como mera fluctuación
aleatoria de la dinámica de nuestro sistema solar que llevar a cabo todo el proceso
evolutivo), insinúan que debe haber algo más profundo detrás de la misma
evolución del universo y su intrínseca historicidad. No parece posible sustituir la
causalidad que se da en la historia real del universo para la emergencia de
determinadas formas naturales. En el universo mismo parece haber una
direccionalidad –como apunta la bajísima entropía inicial del Big Bang, quizás el
misterio más importante de la cosmología actual (Penrose 2016)— y un ajuste fino
que lo hace globalmente habitable (biofriendly) (Davies 2013). Pero si la evolución
y la historia del universo no son computables, estaríamos perdiendo parte de la
fuerza del argumento de los defensores de la IA fuerte. Es la evolución y no nuestra
inteligencia la que permite emerger a la inteligencia.

3. Consideraciones filosóficas

Al acabar la sección anterior enfatizábamos implícitamente la importancia de lo


natural frente a lo artificial. Se trata ahora de elucidar algunas cuestiones relativas
al concepto de inteligencia y ver, por ejemplo, en qué medida podría resultar
producida o ser un efecto colateral o secundario de la evolución o la complejidad de
las máquinas.
3.1. El conocimiento como compresión de información

Una primera connotación que viene a la mente a la hora de hablar de inteligencia


es su oposición al concepto de azar o aleatoriedad como desconocimiento o
incapacidad de ordenación desde algún respecto. En este sentido, el desarrollo de
algoritmos para producir resultados o acciones aparentemente muy complejas
resulta muy revelador de las capacidades de la inteligencia humana para comprimir
información. Así, por ejemplo, la teoría de la información integrada acaba por
identificar el fenómeno de la conciencia con información no ulteriormente
simplificable. Sería injusto entonces no reconocer los aportes de la teoría de la
información algorítmica al desarrollo de la IA y a nuestra misma comprensión más
general de la inteligencia. Dicha teoría, supuestamente, proporciona un marco
natural para estudiar y cuantificar la conciencia a partir de datos neurofisiológicos o
de neuroimagen, asumiendo que la función principal del cerebro es el
procesamiento de información. La compresión de esta última proporcionaría la
estructura para la experiencia fenoménica (Ruffini 2017).

De hecho, cuando analizamos la estructura del deep learning, podemos aprender


de algoritmos de optimización abiertos de qué manera, dentro de los mismos
algoritmos, se generan determinadas estructuras y organizaciones capaces de
optimizar resultados que hubiesen pasado inadvertidas en el proceso de
aprendizaje humano. De modo análogo, el estudio de las correlaciones neurales en
determinadas tareas puede enseñarnos acerca del mejor modo de codificar la
información para abordar un determinado problema (Kasabov 2019). La
investigación sobre IA y la organización del cerebro se estimulan mutuamente; de
modo que la organización arquitectónica de uno puede servir para comprender
mejor el trabajo en el otro. Pero, obviamente, que la organización cerebral, natural
y artificial, resulten cruciales para entender la actividad cognitiva humana no
significa que sean suficientes para entender qué es el conocimiento. Algunos
siguen considerando esta brecha como algo meramente computacional (Reggia,
Huang, and Katz 2017)y, ciertamente, el viaje entre las computadoras y el cerebro
humano es de ida y vuelta, pero la brecha respecto del conocimiento no tiene visos
de cerrarse (Lake et al. 2016).

3.2. ¿Información o conocimiento?

A fin de cuentas, ¿qué es comprender?, ¿qué es conocer? La filosofía tradicional


ha subrayado la existencia de niveles de abstracción, de diferentes operaciones
cognitivas y, en último término, la inmaterialidad o intencionalidad del conocimiento:
su referencia inmediata, como objeto, a una realidad extramental. Parece por tanto
existir una distinción radical y fundamental entre el contenido o el objeto del
conocimiento y sus correlatos neurales en la persona que conoce. Sin duda, hay
entre ambos un vínculo que va más allá de las categorías de lo necesario y lo
suficiente y que, al mismo tiempo, ha necesitado de un largo proceso histórico,
evolutivo, para hacerse presente en la naturaleza. Como apuntábamos antes, la
historicidad del universo señala una cierta necesidad de la evolución para que la
inteligencia humana pueda aparecer. No se ve manera mejor de expresar la
solidaridad del hombre con el cosmos y su proveniencia natural.
Dentro de una lógica diacrónica, parece difícil que la IA sea un sustituto de la
inteligencia humana. Le correspondería a la primera más bien un rol de ayuda para
la progresiva expansión de la segunda. La evolución del software, mientras que
puede ser realmente potente en un sentido, parece ir siempre detrás del
entendimiento humano en cuestiones más profundas (de recurrencia, identidad y
sentido común). La capacidad creativa humana es clave. Pero cómo se alcanza a
tener creatividad está lejos de ser una cuestión algorítmica y programable. Quizás
no tanto por la cuestión de la novedad —que se puede simular, pero solo hasta
cierto punto (Barrett and Sánchez-Cañizares 2018), introduciendo donde sea
necesario cambios pseudoaleatorios— sino por la cuestión de cómo seleccionar las
creaciones más prometedoras. Pero el criterio de selección que se alcanza con el
conocimiento inmaterial —el de una cierta adecuacióncon (parte de) la realidad—
no puede definirse de manera universal y a priori.
Una posible solución para salir del atolladero sería dejar que la propia IA
evolucione para que se lleve a cabo la selección de las buenas creaciones (en esa
línea van los programas de selección natural de algoritmos para resolver problemas
específicos). Lo que resulta menos claro es cuál es el fin de la IA así definida, el
problema al que se enfrenta y cuál es su dominio de variabilidad. Dicho con otras
palabras, la evolución real no se puede representar de manera algorítmica —ni
siquiera sabemos cuáles son los grados de libertad relevantes en la biosfera y
mucho menos en el universo (Kauffman 2016)— y es bastante improbable, por no
decir imposible, que podamos simular artificialmente toda la evolución (y no
digamos ya la evolución de todo el universo). Por tanto, si el problema de la
emergencia de la inteligencia personal no es un problema local sino global, que
afecta a las condiciones de contorno y al valor de las constantes físicas del
universo que nos acoge, resultaría una quimera pretender reproducir esa
inteligencia from scratch. Así pues, mi intuición al respecto es que la evolución es
necesaria para la aparición de la inteligencia humana: la inteligencia de un viviente
particular con una capacidad de objetualización potencialmente infinita. ¿Pero es la
evolución suficiente?

3.3. Conciencia y qualia

El conocimiento lleva anejo la autoconciencia como cierta reflexión a partir de lo


conocido: conocer que se conoce. Sin embargo, para algunos defensores de la IA
fuerte, las experiencias subjetivas llamadas qualiason un efecto secundario de la
computación, que se produce involuntariamente mientras se procesa la
información, de manera similar a la generación de calor, el ruido o la radiación
electromagnética y sería igualmente no intencional. Se plantea por tanto la
posibilidad de crear únicamente programas que se comporten de manera
inteligente.
Ahora bien, si se deja al margen el problema de la autoconciencia y la experiencia
subjetiva de lo conocido como un pseudoproblema, ¿podría convertirse el
programa de la IA en un pseudoprograma? Como bien explica Searle, nuestra
experiencia de la conciencia es la conciencia(Searle 1997)o, como espetó Rowan
Williams a Richard Dawkins en el debate que mantuvieron en Oxford en 2012, si la
conciencia es una ilusión, ¿qué no lo es? ¿Se puede pretender negar la “apariencia
de realidad” a partir de una “realidad más profunda”? ¿No debería ser cualquier
programa honesto de IA uno que pretenda seriamente recuperar la experiencia de
primera persona desde sus propios presupuestos, en vez de simplemente negarla?
El problema sería entonces cómo reconocer dicha experiencia de una manera no
extrínseca.
3.4. Retorno al alma y al conocimiento inmaterial

Empezábamos esta contribución con la pregunta sobre el alma de los robots. Pero
es notorio cómo este término se halla cada vez más ausente en las discusiones
acerca de qué sea la inteligencia, artificial o natural. Curiosamente, el término
“alma” se puede encontrar en cada período de la historia, en cada civilización, en
cada filosofía y en cada religión. Sin embargo, las referencias al alma son
prácticamente inexistentes en las ciencias contemporáneas. En mi opinión, las
razones que han llevado a este olvido tienen que ver con la tendencia general en la
ciencia moderna a identificar la causalidad con causalidad eficiente y material, de
abajo a arriba (bottom-up) y la novedad con una emergencia epistémica o débil.
Pero las explicaciones bottom-upsobre la emergencia de la mente, basándose en la
causa eficiente de las interacciones físicas en el cerebro, descuida formas más
sutiles de causalidad que operan en la naturaleza desde el principio y parecen
ofrecer una mejor explicación, por ejemplo, de la existencia de sistemas
adaptativos complejos. La verdadera causalidad de arriba hacia abajo (top-down),
irreducible a la suma de las causaciones bottom-up, se desarrolla en aquellos seres
naturales donde las condiciones de frontera y su relación específica con el entorno
seleccionan la dinámica de los niveles inferiores compatibles con la existencia y los
objetivos del ser en cuestión.
Se considera usualmente que los sistemas adaptativos complejos combinan
óptimamente resiliencia y adaptabilidad para mantener su identidad en un entorno
cambiante. Gozan de una plasticidad capaz de dedicar solo los recursos
verdaderamente necesarios para afrontar con éxito las diversas condiciones
ambientales. Ahora bien, ¿no podríamos ver entonces el conocimiento intelectual
como aquella facultad que redefine los contextos relevantes para el hombre en
cada situación y por ello resulta máximamente plástica? Como explica Gianfranco
Basti, gracias a su capacidad para generalizar y abstraer con respecto a todos los
datos singulares, el conocimiento humano se puede enfocar en una infinidad de
casos similares. Y cuando el enfoque resulta inadecuado para un nuevo conjunto
de datos, el procedimiento de adaptación cognoscitiva puede repetirse
indefinidamente. Todo esto apunta a una clausura trascendente de la jerarquía
finita de los sentidos internos y externos: una autoconciencia de índole no orgánica
que no está condicionada materialmente por el pasado (es capaz de novedad) y
que los antiguos solían denominar intelecto(Basti 2002).
Ya para Descartes, la diferencia específica que marca a la inteligencia humana se
encuentra en que los procesos mecánicos no pueden en ningún caso alcanzar la
universalidad de la primera. Por ello, la IA no es capaz de crear una inteligencia
general o universal. En este sentido, Descartes parece ser mejor profeta que Turing
(Bringsjord and Govindarajulu 2018). Mientras que todo ente material tiene
necesidad de una adaptación especial para cada acción, el entendimiento humano,
gracias a su inmaterialidad, es universal. En otras palabras, aunque también hunda
sus raíces en la evolución, el conocimiento inmaterial que brinda el intelecto
permite al ser humano abordar nuevos problemas más allá del peligroso ciclo
de ensayo y error, sin estar totalmente condicionado por un entorno físico siempre
amenazante para su vida, y sin tener que abordarlos de manera algorítmica. A
diferencia de lo que sucede con la expresión genética, los conceptos e ideas se
comparten y seleccionan entre los humanos de acuerdo con su validez intrínseca
para describir adecuadamente el mundo. Por lo tanto, amén de conferir unidad a
todas las actividades corporales, las operaciones cruciales y distintivas del alma
humana no son fisiológicas sino informativas: aquellas que permiten un verdadero
conocimiento del mundo.
“El alma es, en cierto modo, todo lo existente” (Aristóteles, De Anima, III, 8). ¿Lo
puede ser un robot? Mucho me temo que no, pues eso significaría que los
humanos hemos sabido desentrañar absolutamente todo el misterio del
conocimiento intelectual, que perdería así su carácter de don para convertirse en
un producto. Como recuerda la filosofía clásica, lo natural es generado y lo artificial
es producido.

4. Reflexiones teológicas

4.1. La pista del lenguaje

Realizo ahora una serie de consideraciones teológicas en relación con lo


específicamente humano: la existencia de un alma inmaterial como forma del
viviente hombre. Sé que asumo un riesgo al hablar de especificidad humana; no
solo por la posibilidad de error sino por la proximidad a la denostada visión de Dios
como “dios de los agujeros” (god of the gaps). Nada más lejos de mi intención que
caer en dicha caricatura de lo divino, pero también creo que es necesario
reconocer que hay agujeros y agujeros. Y no todos son del mismo tamaño ni se
pueden rellenar con el mismo “material” en nuestro conocimiento.
En el último apartado he realizado una defensa fuerte del concepto de
inmaterialidad como lo específico del intelecto humano. Para ser más preciso
ahora, lo que quiero decir con ello no es que no haya inmaterialidad en la
naturaleza infrahumana —pienso que la hay desde el principio— sino que en el ser
humano se da lo que doy en llamar el “despegue” de la inmaterialidad: aquella
singularidad en que lo material y lo inmaterial no tienen que estar necesariamente
unidos, aunque de hecho lo estén mientras el hombre está vivo. Quizás sea en la
convencionalidad del lenguaje donde esto se ilustre más claramente. Tenemos,
como seres humanos, la libertad de utilizar el soporte material que deseemos para
transmitir nuestros conceptos e ideas, de modo que la aparición de la capacidad de
lenguaje simbólico y del hombre sobre la tierra parecen ser solidarios, siendo el
primero manifestación inequívoca del segundo.

Parece ser comúnmente aceptado que la construcción del lenguaje está


estrechamente ligada a la necesidad de comunicación social, esencial al hombre.
Nos moveríamos aquí dentro de una comprensión más relacional de la naturaleza
humana. Ahora bien, ¿dónde está la especificidad respecto de la comunicación que
se da entre otros animales sociales? Pues bien, como señala Pannenberg, en la
cuestión de los orígenes del lenguaje dentro de la historia humana, el verdadero
enigma es su función representativa: la representación de objetos en palabras y
oraciones. Los animales entienden las señales y se dan señales para influir en el
comportamiento de los congéneres. Pero el paso decisivo en la construcción del
lenguaje es la transición de las señales a nombres dirigidos a objetos (Pannenberg
2008, 79).

Más aún, el sonido reemplaza el objeto con el que se juega, evoca el significado
asociado y representa para el individuo la objetividad del objeto. La presencia en la
palabra del objeto ausente constituye la esencia de la palabra como símbolo.
¿Cómo es posible esto en un mundo supuestamente solo material,
gobernado de modo efectivo por interacciones locales? Quizás porque la
naturaleza no es solamente material con interacciones locales. Para Pannenberg,
de hecho, el lenguaje surge de una emoción originalmente religiosa. Por lo tanto,
no es menos una creación humana, pero precisamente como tal, como toda
actividad humana creadora, está en deuda con la experiencia y la inspiración. Pero
entonces, resulta una evidencia importante para reforzar la tesis de que la vida
humana finalmente se sostiene y se mantiene en movimiento desde un estrato
religioso más profundo (Pannenberg 2008, 80).

¿Cuál es este estrato religioso más profundo del que estamos hablando? Si
resulta algo definitivo y definitorio de la especie humana, ¿podría tenerlo o
desarrollarlo la IA? No existen muchas referencias a una eventual religiosidad de
las máquinas. Podemos preguntar a Siri, Cortana o Google al respecto para
escuchar su respuesta. La cuestión es que el lenguaje simbólico permite no solo el
despegue de la inmaterialidad, sino el despegue relacional del hombre, capaz de
relaciones cada vez más numerosas y cada vez más integradas —capaz, en
definitiva, de una singular complejidad. El vértice o ápice de esta singularidad viene
determinado por la capacidad de conocer el universo —la tendencia humana a la
verdad como fin de su vida— y de ser interlocutor de Dios —una verdad que no es
poseída o integrada sino en la que somos asumidos e integrados, “hasta que Dios
sea todo en todos” (1Co15,28).
Siri, Cortana o Google no hacen sino reflejar la opinión de sus creadores humanos,
pues quedan al margen de las finalidades y capacidades que corresponden a la
inteligencia natural. ¿Qué finalidad última puede tener la IA más allá de la que le
venga impuesta por sus creadores (hombre o robot construido por un hombre)? El
tema no parece ser muy tratado por los teóricos de la IA, confiando quizás en que
de la complejidad de los procesos emergerán las finalidades de las máquinas.
¿Pero cuánto de supervisado es, en realidad, el aprendizaje no supervisado? ¿Hay
finalidades intrínsecas de las máquinas o se trata más bien de finalidades
subrepticiamente impuestas por los creadores humanos en base a su ser natural
con tendencias? ¿La finalidad última de la inteligencia humana, del hombre como
ser con orexis, puede ser recreada artificialmente?

4.2. La relación personal con Dios como constitutivo esencial de la


inteligencia natural

Estas preguntas nos conducen derechamente a la consideración clásica de la


inteligencia como lo más directamente dado por Dios. Entiéndaseme bien: dado
directamente no como producido directamente (en el sentido de la eficiencia), sino
en el sentido de una relación directa, especial y única en todo el universo con el
Creador: lo más transparente a Dios. Para Aristóteles, la inmaterialidad del noûses
el elemento divino en el hombre, quizás más divino que aquel primer motor inmóvil
al que corresponde el papel de deus ex machinaen la física del Estagirita. El
Catecismo de la Iglesia Católica recuerda, en su número 356 que “de todas las
criaturas visibles sólo el hombre es ‘capaz de conocer y amar a su Creador’ (…); es
la ‘única criatura en la tierra a la que Dios ha amado por sí misma’ (…); sólo él está
llamado a participar, por el conocimiento y el amor, en la vida de Dios. Para este fin
ha sido creado y ésta es la razón fundamental de su dignidad”.
Nótese bien que el fin y la razón última de la dignidad coinciden. Y coinciden, a mi
modo de ver, porque la inteligencia, como chispazo de la imagen divina, hace al
hombre capax Dei, de un Dios que, de hecho, quiere entrar en relación con él, por
sí mismo, desde su creación. Cuando, en el ya citado debate de Oxford, Richard
Dawkins pregunta al arzobispo Williams si los cristianos aún siguen creyendo en la
supervivencia de algo así como el alma después de la muerte, la respuesta del
arzobispo resulta paradigmática a la hora de entender correctamente la
subsistencia del alma y la especificidad humana: “los cristianos creemos que el
diálogo que Dios inicia con cada uno de nosotros en la creación no resulta
interrumpido ni siquiera con la muerte”. El problema de la subsistencia del alma se
suaviza cuando la perspectiva fundamental es relacional y no sustancialista, sin
que ello prejuzgue el que se pueda recuperar la individualidad y racionalidad de la
definición boeciana de persona desde la relación fundamental con Dios.
Si nos atenemos al contenido del n. 22 de Gaudium et spesen un sentido fuerte, el
misterio del hombre solo se revela plenamente a la luz del misterio del Dios
encarnado. Entonces, la figura de Jesús significa que el hombre no es un producto
trivial de la evolución sino algo radicalmente referido a otra cosa: el contenido de la
vida de Jesús consiste precisamente en el encuentro, en el intercambio con aquel a
quien llama Padre. En que se acepta desde Él y desde Él encuentra su camino.
Creer en Jesús quiere decir, por consiguiente, creer que existe una verdad desde la
que el hombre viene y que es su verdad más íntima, su verdadera esencia
(Ratzinger 1985, 109). Pero el hombre pertenece a la naturaleza, es naturaleza.
Por eso la encarnación posee una dimensión de recapitulación cósmica a través
del envío del Espíritu Santo, de modo que el universo mismo está a la espera de
adquirir su significado pleno mediante el hombre redimido (Rm8,19), capaz de
superar el pacto roto con la naturaleza (Novo, Sánchez-Cañizares, and Pereda
2018). En mi opinión, la etiqueta “inteligencia artificial” es una metáfora, en el mejor
de los casos, y un oxímoron en el peor. La inteligencia solo puede ser natural,
porque solo Dios puede crear seres verdaderamente inteligentes llamados a la
comunión con Él en la recapitulación universal.

3ra Crítica:

Según Russell y Norwig, los argumentos a favor y en contra de la IA fuerte no son


concluyentes. Pocos investigadores de la corriente principal de la IA creen que algo
significativo depende del resultado del debate y la conciencia sigue siendo un
misterio (Russell and Norvig 2009, 1040). ¿Pero por qué es tan difícil llegar a un
acuerdo sobre estas cuestiones? Quizás porque el punto de partida es
verdaderamente diverso y se dan muchas peticiones de principio escondidas.
También la inteligencia es un misterio para los creyentes y, en la práctica, solo se
puede aspirar a describirla. Pero no es esta, desde luego, la perspectiva del
funcionalismo, la filosofía de la mente más naturalmente sugerida por la IA (Russell
and Norvig 2009, 1042).

Para el funcionalismo, la perspectiva “basta con el cerebro” (narrow content) es la


más apropiada y resulta suficiente: simplemente no tiene sentido decir que si un
sistema de IA está realmente pensando o no depende de las condiciones fuera de
ese sistema(Russell and Norvig 2009, 1029). Ahora bien, aquí se ve de modo muy
claro el a priori funcionalista. Si solo se admite una definición funcional de la
inteligencia es lógico que la IA aspire a producirla. Por el contrario, solo desde una
perspectiva ampliada (wide content) —en el espacio y en el tiempo— tiene sentido
decir que el estado físico del cerebro no determina el contenido mental. El estado
mental no solo depende del cerebro. Los cerebros no son sistemas cerrados; están
en continua interacción con el cuerpo y con el entorno. Tienen una historia. Se
hace por ello también necesaria una teoría de la mente extendida (Fuchs 2017).
El funcionalismo, mediante el experimento mental del reemplazo de cerebro por su
equivalente funcional, afirma que se debe creer que la conciencia se mantiene
cuando todo el cerebro es reemplazado por un circuito que actualiza su estado y
mapea las entradas y salidas a través de una enorme tabla de entradas y salidas
(Russell and Norvig 2009, 1030). Pero el problema de fondo es la reducción que
pretende encerrar la conciencia en un sistema físico aislado. El experimento es
imposible porque el cerebro necesita estar en un ser vivo, lo que significa estar en
un tipo de interacción muy determinada (y únicamente determinada por toda la
historia del universo) con el entorno. Es difícil no estar de acuerdo con Searle en
este punto cuando afirma que los estados mentales no se pueden duplicar solo
sobre la base de que algún programa tenga la misma estructura funcional, con el
mismo comportamiento de inputs y outputs. Necesitaríamos que el programa se
ejecute en una arquitectura con el mismo poder causal que las neuronas. Pero mis
objeciones van más allá de las de Searle.

Lo que sostengo en esta contribución es que hay inmaterialidad en la naturaleza.


Es más, está desde el principio en ella como lo dado, y no como lo producido. La
emergencia de la inteligencia personal —junto con la autoconciencia y la libertad—
es un proceso evolutivo no algorítmico en el que se alcanza un vértice en el nivel
de complejidad del viviente: la posibilidad de una inmaterialidad no ligada a la
materia. Por eso, un robot solo puede aproximarse a simular el comportamiento
humano en un rango determinado de tareas, susceptible de compresión
algorítmica. Si este argumento no se admite creo que solo se puede añadir que la
carga de la prueba reside en la IA. Para ello, la IA no debe simplemente constatar
que se dan, supuestamente, comportamientos inteligentes en las máquinas, sino
explicar, causalmente, cómo se llegarían a producir.
Las condiciones de habitabilidad e inteligibilidad globales del universo en que
vivimos resultan, a mi modo de ver, una pista muy relevante para entender por qué
la inteligencia está en la naturaleza como lo dado y no como lo producido. La
pregunta adicional que ha de abordar el programa de IA es si en su visión del
mundo hay lugar para la manifestación del don o simplemente para el dominio
explotador de la producción. Quizás pocos discursos han expresado mejor este
dilema como el del replicante Roy Batty, en el primer Blade Runner, después de
buscar desesperadamente a su creador antes de morir: “Yo… he visto cosas que
vosotros no creeríais: naves de combate en llamas más allá de Orión. He visto
rayos C brillar en la oscuridad cerca de la Puerta de Tannhäuser. Todos esos
momentos se perderán… en el tiempo… como lágrimas en la lluvia. Es hora de
morir”. Roy parece quedarse a las puertas de alcanzar el punto crucial de
humanidad: la posibilidad, que trasciende a la muerte, de relacionarse con su
auténtico Creador.
Pragmatismo e Inteligencia Artificial
Tradicionalmente la filosofía analítica es la que mayor uso ha tenido en el
desarrollo de las teorías de Inteligencia Artificial (AI), centrándose su proyecto en la
cuestión del “significado”. En general, la filosofía analítica busca entender el
proceso de la “significación” en cuanto en ¿qué consiste entender un concepto?,
pero deja a un lado el interrogante acerca de “¿cómo es que las creaturas, con una
constitución, historia y herramientas particulares y contingentes, dan muestras de
los conceptos?” (BRANDOM 2008). Se busca una teoría normativa acerca del
razonar como algo en abstracto, en la que se le da poca, o nula, importancia al
“uso práctico” de lo que cada ser hace con los conceptos que ha almacenado, o
aprendido.

Se ha tratado de entender cómo funcionan las estructuras mentales en la creación


de “conceptos” y su uso en IA consiste en, basándose en las teorías que se
plantean acerca de ello, diseñar sistemas artificiales que lo emulen; sin embargo,
esta tentativa, que bien podría denominarse “intelectualista” presenta algunas
dificultades en el momento de llevar a la práctica lo que se plantea en la teoría. Se
piensa que encontrando el esquema racional del pensamiento, su función interna,
esa “fórmula mágica y lógica” que explique cómo la mente se conecta para creer
conocimiento, se puede llegar a entender y a explicar todo el proceso cognitivo de
los seres. Sin embargo, esa búsqueda de un modelo único no tiene en cuenta los
diversos matices que se presentan en el uso diario que se da de los conocimientos
que se tengan, y de la misma forma, tampoco de la manera en que, “creaturas”,
para usar el mismo término de Brandom, con diferentes configuraciones “aprenden”
nuevos conceptos. No se pretende, en este trabajo, discutir acerca de lo que es la
“verdad”, simplemente se partirá del hecho que verdadero es aquello que nos sirve
para conseguir nuestros objetivos, siguiendo el pensamiento de James.

La IA, enfocada desde el punto de vista “intelectualista” busca encontrar un sistema


de validación de la verdad “absoluto” para, a partir de él, explicar cómo se usa
dicho conocimiento en la experiencia. Estudiando y entendiendo el cómo la mente
se apodera de conceptos, tales como “rojo”, “blanco”, “bueno”, “malo”, “silla”,
“mesa”, etc., esto hace que se pueda, en la realidad, distinguir entre “una mesa
roja” y “una silla blanca”, que sepamos que “una mesa es buena para poner los
platos sobre ella y mala para sentarse”. Sin embargo, en la vida diaria vemos cómo
el actuar no es tan lógico, ni se rige por esas conceptualizaciones. De ahí que, un
sistema artificial no prospere sino teóricamente, en un mundo cerrado y limitado.
¿A qué se debe, entonces, esta aparente incompatibilidad entre el esquema que se
maneja en IA y el mundo real?

Primero, se podría encontrar una base biológica. Aunque todos tengamos una
cantidad finita de enzimas que forman los genes, las combinaciones son infinitas,
por lo que el desarrollo de los órganos encargados de las funciones mentales es
diferentes, y por lo mismo la serie de conexiones que en ellos se realizan cuando
se percibe el mundo. Segundo, las experiencias que forman la estructura mental
puede variar dependiendo la “escenografía”, esto es el entorno en el que se vive.
Por último, es el uso que cada uno hace de la “aplicación” de lo aprendido lo que
lleva a “sedimentar” el concepto en la mente. En su texto, “How Analytic Philosophy
Has Failed Cognitive Science”, Robert Brandom muestra cómo no basta con lograr
una distinción de conceptos como “rojo” o “grivey” si no sabemos a qué nos
referimos. El concepto se valida en cuanto podemos hacer uso de él. Como diría
Heidegger, es el uso práctico que hacemos de las cosas, su aplicación fáctica, lo
que nos lleva a definirlas en cuanto “verdaderas” para el uso que nos proponemos.
La mesa, después de una larga jornada de pie y ante la falta de sillas sirve para
sentarnos en ella y descansar un poco. ¿Qué ha pasado acá? ¿La mesa se ha
convertido en silla? El concepto que teníamos de algo se ha mezclado con el otro,
analíticamente las cosas parecen haber fallado pues ¿cómo puede el concepto
“silla” quedar igualado al concepto “mesa”? Si el actuar quedara ligado a los
conceptos que tenemos nos moriríamos de cansancio al no podernos sentar sobre
la mesa. ¿Qué sucede, cognitivamente hablando? ¿Se ha ampliado el significado
de un concepto para que abarque el significado del otro?

El uso que hacemos de los conceptos no se limita simplemente a ponerle una


“etiqueta” a una serie de percepciones sensoriales para distinguirlas unas de otras,
sino al uso que le damos. La mesa sirve de silla, por lo que el concepto se amplía
con el uso. Analíticamente se podría decir que, para salvar esta dificultad de la
mezcla de conceptos, un concepto tiene un significado “primario” o “esencial” pero
que además posee otros significados “alternativos” que dependen del contexto; el
problema acá es que este listado de significados “alternativos” o “secundarios”
podría extenderse al infinito. Cada circunstancia en particular, cada creatura en su
individualidad, agregaría más y más significados a un concepto con lo que sería
imposible poder hacer una distinción clara de lo que separa a un concepto de otro.
Volviendo a James, lo que hacemos es ir adquiriendo una colección de significados
que vamos almacenando y que, dependiendo el uso que busquemos, el propósito
que tengamos al encontrarnos frente a un objeto, le daremos significado y
obtendremos de él su conceptualización inmediata.

Hasta el momento se he venido usando los términos “concepto” y


“conceptualización” de forma matizada asimilándolos al concepto de “uso”, cuestión
que ahora merece la pena hacerse explícita ya que es fundamental para el resto
del desarrollo del tema. No podemos hablar de “concepto”, ni de sus derivados, de
forma abstracta; se debe entender que no son nociones simplemente mentales que
se están dentro de nuestro cerebro, sino que están íntimamente ligadas al uso
práctico que hagamos de ellas. ¿De qué sirve saber algo, si no sabemos usarlo?
¿Es posible que tengamos conceptos vacíos? Intelectualistamente hablando
podríamos decir que sí, que el concepto es una estructura mental que formamos
para entender la realidad, pero ¿en la vida funcionan las cosas así? Todo concepto
tiene su enlace con el mundo, con la realidad, se expresa mediante un uso
concreto que hagamos de él en, volviendo a términos Heideggerianos, la
“facticidad”. Los conceptos son, entonces, no simplemente identificaciones que
hacemos de las fenómenos del mundo, si no que, incluso conceptos abstractos que
aparentemente no tienen una conexión directa con el mundo, tales como “alma”,
“conciencia”, “mente”, “ciencia”, etc., son expresiones de maneras de una
descripción “propia” de la realidad. El loro, en el ejemplo que propone Brandom en
su texto acerca de la filosofía analítica, puede llegar a discriminar el rojo de otros
colores, pero ¿por ello se puede decir que están en posición de dicho concepto? O
el pedazo de metal, que incluso responde al identificar ciertas condiciones
atmosféricas, oxidándose, quebrándose o manteniéndose intacto, realizaría una
actividad conceptual, si adscribimos dicha actividad al sólo hecho de la clasificación
por mera identificación (BRANDOM 2008).
Cuando se piensa en diseñar sistemas artificiales inteligentes, lo que se busca es
que el sistema “responda” ante una serie de estímulos, no sólo que los sepa
identificar. Hay desarrollos en sistemas inteligentes cuyo objetivo es simplemente la
identificación y clasificación de fenómenos, pero dichos sistemas son sistemas
dependientes, no son sistemas autónomos capaces de actuar por sí mismos, por lo
que su nivel de inteligencia no dista mucho del nivel de inteligencia que le podemos
asignar al loro o al pedazo de metal anteriormente citados. Un sistema de IA ideal
es capaz de “conceptualizar”, esto quiere decir ser capaz de actuar de acuerdo a
los conceptos aprendidos.

Es indispensable sacar la idea de “concepto” del entarimado en que se ha puesto


por el logicismo, la analítica, y otras ramas de la filosofía, y traerla al mundo del
“actuar”, del “uso”. Aunque se crea que el “pensar” y el “conocimiento” son
procesos que se dan dentro de la mente, tal vez por la costumbre de la vida, que es
un actuar constante, no se logra ver claramente que se piensa y se tiene
conocimiento del mundo sólo en la medida en que interactuamos con él. Las
estructuras del mundo sirven para ayudarnos a “pensar qué hacer”, no se piensa
sólo para pensar y acumular pensamientos. Podría decirse que se piensa para
sacar conclusiones, sacar inferencias de fenómenos que, lógicamente hablando,
deberían venir traducidos en proposiciones listas para llevarnos a un argumento
válido; pero es en el momento de actuar según esas inferencias en que el
pensamiento adquiere su validación como pensamiento. ¿Cuándo, por ejemplo, el
concepto de bosón adquirió realmente su validez como concepto de la física
actual? En el momento en que los físicos lo “actúan” en sus teorías, lo hacen
funcionar dentro del sistema de la física. No puede haber conceptos sin
“actuación”, sin “uso”, sin vínculo con la realidad, así sea en un primer instante una
realidad teórica, como sucede con el concepto de bosón anteriormente
mencionado. Se dice popularmente que “la práctica hace al maestro”, en este caso
es la práctica la que afianza el concepto.

Ahora bien, podría decirse que la función de distinguir es un “uso práctico” del
concepto, ya que se “hace” algo con él, en este caso se realiza la acción de
clasificar, o mostrar la diferencia de un fenómeno frente a otro. Se tendría,
entonces, que aclarar más que se entiende por “uso” cuando se habla de
conceptualización. Puede hablarse de dos tipos de actuar: uno, en el que la acción
se realiza de forma pasiva, sin un contacto directo con la realidad exterior, podría
llamarse también una “acción mental”; y el segundo, un actuar en que se afecta de
alguna manera el mundo exterior, en el que la acción trae consecuencias que se
expresan en su uso práctico, quiere decir esto una “acción pragmática”. Sin
embargo, vale la pena aclarar que esta distinción es una distinción de tipo formal
en la que todavía se mantiene la dicotomía entre dos realidades, una de carácter
abstracto y otra de carácter material; si bien acá se ha mantenido esa distinción,
hay que notar que en el accionar de la realidad no se da la una sin la otra. No
actuamos nunca sin pensar, y no pensamos nunca para luego no actuar. Pero en el
modelo que se está trabajando acá se mantiene la diferencia para hacerla notar
con respecto de lo que se plantea en las tesis intelectualistas y lo expresado en la
analítica.

Luego de dejar planteado, en una aproximación bastante clara, lo que se va a


entender cuando se hable de los términos “concepto” y “conceptualización”, las
próximas páginas tratarán acerca de tres formas de presentar un proyecto de
“epistemología naturalizada” recogidas por Stephen Stich en su artículo
“Naturalizing Epistemology: Quine, Simon and the Prospects for Pragmatism”
(STICH 1993).

La idea que mantiene Stich sobre una “epistemología naturalizada” es la de un


proyecto de epistemología en que entendida ésta como aquella ciencia que trata de
la “doxástica”, estos quiere decir que la epistemología naturalista es una
epistemología que se centra en el estudio de los sistemas de creencias, su
formación y revisión, para entender qué maneras son las más correctas y cuáles
no, en el modo en como el sistema se edifica en las personas. Así se presenta una
primera separación con otras formas de entender la epistemología centrando su
problema en la “doxástica” y no en el “conocimiento”, cómo distinguirlo del error, la
ignorancia y la opinión; y tampoco en el problema de refutar el escepticismo
(STICH 1993). Se ve que el enfoque que toma Stich muestra a la epistemología
centrada no en la cuestión de la verdad (¿qué es correcto? ¿Qué es falso?) ni en el
problema de la posibilidad del conocimiento (¿es posible tener absoluta certeza?),
sino en la cuestión de la utilidad de las creencias (¿por qué y cómo se construyen
creencias útiles?).

En cuanto a qué entender por “naturalista”, Stich se enmarca en el cauce de un


“naturalismo débil” en el que, si bien hay una serie de cuestiones epistemológicas
que pueden verse reducidas o remplazadas por la ciencia para que sea la ciencia
la encargada de resolverlas, hay aspectos en la epistemología que no pueden ser
respondidos por la ciencia, contrario a lo que platea el “naturalismo fuerte”.
Resumiendo, el significado del término “epistemología naturalista” es aquel
proyecto de una epistemología pragmatista centrada en el problema doxástico que
estudia la forma en que se construyen las creencias y el cómo éstas resultan
buenas o deficientes en cuanto a su uso, basándose en el principio de que, aunque
las cuestiones epistemológicas pueden ser resueltas por la ciencia, hay al menos
un problema epistemológico para el que la ciencia no es suficiente (STICH 1993).

Partiendo de esta idea de epistemología naturalizada, Stich va a analizar tres


proyectos que se etiquetan dentro de esta tendencia de la epistemología. El
primero de ellos atribuido a Quine, el cual le parece “simplemente incoherente”; el
segundo un proyecto de naturalismo reliabilista (“naturalized versión of reliabilism”)
que, más resulta menos interesante que lo que aparenta a simple vista; y el tercero,
enmarcado en la tradición pragmatista cuyo resultados, de llegar a alcanzarse las
metas propuestas por este modelo, serán mucho más interesantes y útiles que los
del modelo anterior.

El proyecto de Quine se entiende desde el punto de vista de que las pregunta


epistemológica acerca de la formación de las creencias debe ser reemplazada por
la pregunta psicológica. No se debe preguntar ¿cómo es el proceso en que se
construyen las creencias partiendo de la base de la evidencia? Si no, ¿cómo es
que en verdad se realiza esto? Sin embargo, la crítica que hace Stich del proyecto
de Quine se centra en que, desde el punto de vista psicológico, la pregunta es da
en el ¿cómo es que, en verdad, se construyen creencias, visiones del mundo a
partir de la estimulación sensorial, de la evidencia? Mientras que la pregunta que
importa en la epistemología es ¿cómo la evidencia se relaciona con la teoría? Y
más allá de esto, ¿cuáles de las formas en que dicha relación se da son buenas y
cuales son malas? Para lo cual el sujeto de estudio no puede ser “cualquier”, como
se desprende del proyecto de Quine.

Estudios en psicología cognitiva han mostrado que “se dan diferencias


significativas entre los individuos en sus estrategias de razonamiento, algunas de
las cuales se deben a su educación y entrenamiento previo” (STICH 1993). De
acuerdo con el proyecto de epistemología naturalista de Quine es posible, a partir
de estos resultados, mostrar que existen diversas formas en que están
relacionadas la evidencia de las personas, con su imagen del mundo; sin embargo,
no hay herramientas para poder discernir ¿cuál, de estas relaciones evidencia –
mundo, es mejor o peor? Y esto último, es lo que se busca desde la epistemología.
Por lo que, “No podemos basarnos en la psicología porque ella nos dice cómo es
que la gente razona, y no (efectivamente no puede) cómo debería ser ese
razonamiento” (STICH 1993). Psicológicamente hablando el proyecto de Quine
sólo nos permite, al seguirlo, señalar la relación que hay, como se ha dicho, entre
evidencia y mundo, sin importar cuál sea el sujeto de estudio. ; por lo que al
estudiar, tanto un caso patológico, como un caso “normal” sólo se puede observar
la relación evidencia – mundo, el cómo se razona, sin poder decidir, o mostrar las
diferencias epistemológicas de dichas relaciones. Se podría observar cómo se
relaciona un concepto pero sólo en términos, no nos dice si es una buena
conceptualización o no. Aunque ambos individuos, en el caso extremo uno que
sufre de una patología en la concepción del mundo y uno “normal”, actúan de
acuerdo a su conceptualización, la búsqueda de un “sistema adecuado” para
entender el razonamiento no es posible. Partiendo, claro está de lo que es para
Stich la epistemología y ampliándolo a lo que él podría pretender con un sistema de
IA.

Normalmente se busca, en IA, crear sistemas que razonen adecuadamente y no


sistemas “patológicos”. Aunque personalmente me alejo de esta concepción, me
parece que lo que se debe buscar en un sistema artificial de razonamiento es
entender, justamente, esa relación que no es suficiente para Stich. Sin embargo,
como el proyecto de Quine no está planteado en mis términos, si no en los
términos comunes de la epistemología, comparto la crítica que se le hace. No va en
el propósito de este texto cambiar la criticar la concepción de IA que se maneja, por
lo que seguiré con el análisis de Stich, haciendo sólo la salvedad presente en estas
líneas, acerca de lo que, a mi parecer, debería guiar los estudios en ciencias
cognitivas.

La segunda propuesta que menciona Stich en su artículo es la del “reliabilismo”


(reliabilism), que consiste en estudiar el razonamiento en aquello individuos que
son buenos en la formación de creencias. El problema con este proyecto de
epistemología naturalizada es que, si bien ya muestra una distinción entre las
diversas formas del razonamiento que permite decidir entre uno mejor que otro, no
deja claro cómo hacer para distinguir cuál es el mejor y cuál debe ser el sujeto de
estudio. Acá se plantea el interrogante acerca de ¿cómo definir una buena
creencia? ¿Qué es un razonamiento es bueno y qué uno malo? Se entra en una
discusión acerca del valor de “verdad” con lo que, al seguir esta propuesta, nos
alejaríamos del propósito principal.

Stich hace una comparación entre las estrategias del ajedrez y las estrategias del
razonamiento. Si bien en el primero es sencillo encontrar “buenos” exponentes,
aquellos Grandes Maestros del ajedrez, no sucede lo mismo en el segundo caso.
Los grandes exponentes del “buen” razonamiento (Aristóteles, Newton, Descartes,
etc.), si bien alcanzaron “verdades” científicas, con el paso del tiempo se ha
demostrado que algunas de sus mejores teorías han sido reemplazadas por
nuevas, que son “mejores”. Entonces, ¿para qué serviría estudiar los métodos de
razonamiento de aquellos que el tiempo ha mostrado que estaban equivocados? El
problema de esta propuesta radica en que se busca “un método “bueno” para el
razonamiento en general, y no tiene en cuenta las diferencias, o por lo menos no se
detiene en cuestionarse acerca del problema sobre ¿cómo decidir que un método
es bueno, que con él se alcanzan “verdaderas” creencias?

El proyecto “reliabilista” avanza un paso más en lo que es la propuesta pragmatista,


pues no se queda en el paso de, simplemente, plantear cuál es la finalidad, que en
este caso es común en las propuestas de la epistemología naturalizada (entender
las estructuras del razonamiento humano), si no que establece que para ello se
debe centrar en el estudio de aquello que han tenido éxito en sus objetivos. Sin
embargo, es estático en cuanto a las estrategias que se observen en los sujetos de
estudio. En esta propuesta, luego de encontrar el “mejor” razonador, se obtiene la
estrategia de razonamiento usada por él, pero no plantea la posibilidad de que,
basándose en ella, del conocimiento de su estructura, dicha estrategia pueda ser
mejorada. Por eso, si se tomará como sujeto de estudio a Aristóteles, se obtendría
la estrategia de razonamiento propia de él, pero sería obsoleta ya que no permite
mejorarla. El pensamiento de Aristóteles es obsoleto, en cuanto a que sus
“verdaderas” creencias ya no son “verdaderas” y es en ello donde falla esta
segunda propuesta de epistemología naturalizada.

Una propuesta pragmatista daría ese tercer paso que señala Stich: permitir que la
estrategia sea mejorada y no se quede estancada. Esto es lo que se encuentra en
el proyecto de pragmatismo computacional de Herbert Simon. La idea de Simon es
construir “una lógica del descubrimiento científico” de forma tan sistemática y
explícita que pueda desarrollarse con ella un programa informática capaz de
obtener los mismos resultados que lo sujetos en los cuales se basó. Es un sistema
de IA capaz de llegar a teorías e hipótesis científicas partiendo, no de principios
abstractos, tales como principios a priori o argumentos filosóficos, sino de
cuestiones más empíricas. Se trata de reunir toda la información posible que pudo
rodear la vida del científico que se ha escogido para el estudio, los datos a los que
pudo acceder, las teorías del momento, sus propias ideas anteriores, etc. A partir
de ello se diseña el programa y para comprobar su validez, en cuanto réplica del
proceso de razonamiento del científico seleccionado, se busca que: primero, se
llegue a la misma teoría o hipótesis a la que llegó él; y segundo, que para llegar a
ella se den ciertos pasos inferenciales por los cuales también debió pasar el
científico antes de lograr su objetivo. Para este segundo paso se compara lo que se
conserva en diarios de laboratorio, y demás documentos históricos que puedan
mostrar las conclusiones anteriores a las que iba llegando el científico a medida
que avanzaba en su teoría. También Simon y su equipo diseñaban un protocolo
para probar esto, basándose en un grupo de alumnos a los que se les pedía que
fueran mostrando los pasos posibles en el descubrimiento de la teoría del científico
estudiado, para lo cual se les daban los mismos datos que sirven de datos de
entrada en el programa desarrollado.
Este proyecto debe lidiar con algunos inconvenientes, entre los que se encuentran
la teoría acerca de la creatividad que dice que todo proceso de creación es algo
“misterioso” que no se puede condensar en un algoritmo computacional. Además
puede encontrarse que no se encuentren estrategias comunes en el estudio de dos
científicos diferentes, sin embargo este problema no se debe a una dependencia de
la estrategia de razonamiento ligada a cada problema en particular, con lo que no
se podría hablar de haber encontrado una estrategia de razonamiento del
pensamiento científico, sino que la diferencia radica en la diferencia que se
encuentra entre cada dominio científico. A pesar de las dificultades, el equipo de
investigadores de Simon ha logrado simulaciones satisfactorias de varios
descubrimientos científicos importantes, como la tercera ley de Kepler, entre otros.

Por último, Stich propone ir más allá del trabajo de Simon, buscando formas de
mejorar las estrategias de los científicos haciendo una conjunción de una teoría
normativa del descubrimiento y una teoría descriptiva del mismo. Diseñar
algoritmos que, incluso, lleguen a “pensar” mejor que aquellos sujetos en los que
se ha basado el estudio. Haciendo un exhaustivo trabajo empírico para conocer
cuáles son las limitantes epistemológicas de los humanos . Una “epistemología
androide”, en términos de Clark Glymour, en la que se ignoran las limitantes del
pensamiento de los seres humanos. Sin embargo, el estudio de la epistemología
humana es importante para descubrir esas fronteras en las que se ve envuelto el
pensamiento. Además, en este aspecto también es importante tener en cuenta una
“epistemología social”, ya que el pensamiento no está aislado del contexto social
del sujeto. En el trabajo de Simon esto se ha dejado a un lado por su extrema
dificultad, sin embargo, en futuros estudios es un punto que es importante tener en
cuenta.

Ahora bien, de la misma forma como se ha estudiado pragmáticamente las


estrategias de razonamiento a la hora de obtener teorías científicas, lo mismo
podría hacerse centrando el estudio en las estrategias de “conceptualización” que
están muy ligadas a lo anterior. Muchas veces, si no es en todas, llegar a una
hipótesis o teoría no es más que “crear un concepto nuevo”, es la forma cómo, las
percepciones se ordenan en una idea “conceptual”. De ahí que, si se extiende el
trabajo de esa epistemología naturalizada, el algoritmo, el sistema de IA que se
deduzca de ella permitirá también “pensar” en términos muchos más amplios que el
meramente científico. Se llegaría, incluso, a necesitar una “epistemología
lingüística”, ya que la expresión de los conceptos se realiza por medio del lenguaje,
habría que estudiarse cómo influye el lenguaje en el razonamiento que conduce a
la creación de los conceptos.

Para terminar este texto, y a modo de conclusión, el estudio basado solamente en


los aspectos analíticos del pensamiento humano falla al no verse conectado con la
realidad empírica. De ahí la importancia de la epistemología naturalizada, en la que
se tienen en cuenta la influencia de los factores extra-mentales, con lo que ha
logrado el equipo de Simon importantes avances. Siguiendo esta línea se logran
superar los problemas a los que se enfrenta la teoría cuando se intenta llevar a la
práctica. Las ciencias cognitivas no deben olvidar que, aunque se estudio sea el
proceso mental, éste está ligado de forma muy íntima, a la realidad empírica, a la
facticidad; y, cómo se dice popularmente, “las cosa se aprenden haciéndolas”.
¿CÓMO INFLUYE LA INTELIGENCIA ARTIFICIAL EN LA ECONOMÍA Y LOS
NEGOCIOS?

La inteligencia artificial supone una aceleración exponencial en el crecimiento de


los negocios, por mencionar solo uno de los factores donde influye la inteligencia
artificial en la economía.

Estamos viviendo un momento de impacto e importancia transcendental para el


resto de la historia, nunca antes desde la introducción de la electricidad hemos
visto los efectos de una transformación que traspase todas las fronteras, es casi
imposible que exista un área de la vida en donde no influya o vaya a influir
la inteligencia artificial, obviamente la economía y los negocios es una de ellas.

La inteligencia artificial por sí misma ya es un negocio, uno que crece a pasos


agigantados cada año, y que ha venido multiplicándose por 8 desde el 2012
aproximadamente. A su vez esta abarca un amplio espectro de aplicaciones y
utilidades, tendemos a pensar naturalmente que la IA son robots, pero esta
tecnología está compuesta por mucho más. Entre ellas, los sistemas de
reconocimiento de voz, autos “autónomos”. diagnósticos a través de algoritmos y
aplicaciones industriales.

“La IA se basa en comprender el entorno que nos rodea, extraer y analizar una
serie de datos por medio de la experiencia o el aprendizaje, para después razonar
y tomar decisiones por cuenta propia” describe Manuel Fuertes, presidente del
Grupo Kiatt.

Como consecuencia esta tecnología es aplicable a un amplio abanico de industrias,


las cuales destinarán cifras muy importantes a quienes se dediquen a prestar
servicios e instaurar plataformas de inteligencia artificial que sean capaces de
optimizar y transformar sus aplicaciones y procesos comerciales.

En este punto cabe destacar empresas como IBM, pionera en el uso comercial de
la IA. Entre sus múltiples aplicaciones y avances hemos visto de cerca cómo opera
con el software aplicado a la gestión de mantenimiento de activos como la solución
para el análisis y procesamiento de datos relevantes en la gestión, tecnología que
opera bajo la representación exclusiva en Chile para nuestro cliente PRIM
ingeniería.

IBM también ha desarrollado softwares con esta tecnología aplicada al área de la


salud, llevando a cabo un programa piloto junto al hospital Memorial Sloan
Kettering de Nueva York, para el proyecto se entrenó el sistema con más de 20
millones de documentos académicos que se han publicado sobre el cáncer.
Resultando que con una muestra de 1.000 pacientes llegó al mismo diagnóstico
que los médicos en el 99% de los casos. Además, en un 30% de las ocasiones el
tratamiento recomendado fue incluso mejor, ya que había tenido acceso a estudios
que se habían escapado al ojo de los humanos.

Estamos ante un tipo de tecnología que opera bajo el autoaprendizaje que según
expertos nos lleva directo a la era de la industria 4.0. Pero, ¿quién gana y quién
pierde en el área de la economía y los negocios con la inteligencia artificial?

Por un lado tendremos empresas más competitivas y eficientes enfocadas en


solucionar problemática precisa de manera personalizada, maximizando la
experiencia positiva y minimizando riesgos a través de la capacidad predictiva. Por
otra parte el impacto a la fuerza laboral se verá inevitablemente afectado, ya que se
espera que un gran porcentaje de los trabajadores actuales serán sustituidos por
una máquina, disminuyendo los costes operativos y de riesgos.

Indudablemente la inteligencia artificial influirá en la forma de hacer negocios,


haciendo que cada vez sean más los proyectos y startups dedicadas a ofrecer
soluciones integrales operando bajo la tecnología de la IA. Si estás listo para
integrar soluciones digitales y tecnológicas, podemos ayudarte.

¿Cómo incorporar conocimientos y tecnología a una economía


subdesarrollada’

La incorporación de conocimientos y tecnología no es un proceso simple. No basta


con adquirir las máquinas o las licencias para lograrlo.

Porque comprar bien, usar bien, mantener bien y -sobre todo- adaptar, cambiar,
mejorar e integrar armónicamente lo nuevo con lo que ya se tiene, exige un caudal
muy importante de conocimiento, seguramente no muy inferior que el necesario
para "hacer".

Además no es posible conseguir en el mercado tecnológico mundial todo lo que el


país o sus sectores productivos necesitan. Suele suceder que los requerimientos
son muy específicos, y mientras la oferta es relativamente rígida, la demanda
tiende a ser potencialmente muy diversificada.

Para comprar bien hay que estar al nivel de aquel a quien se compra. Y a la vez, la
transferencia de conocimientos es un paso imprescindible en el proceso de
aprendizaje que lleva a maximizar la propia capacidad de creación e innovación.

El dilema puede plantearse en términos de ¿comprar o hacer?, pero tal


planteamiento es básicamente falso. Ningún país puede plantearse hacerlo todo, y
en un país subdesarrollado como Guatemala la necesidad de priorizar implica
justamente no hacerlo todo. En realidad se trata de "hacer uno lo máximo posible
partiendo del máximo que hicieron otros", que se traduce en comprar todo lo que es
estándar (donde la relación calidad/costo ha sido maximizada por la producción
masiva) y proceder a agregar sistemáticamente valor con lo que uno mismo hace.

Depender de la importación de tecnología, el licenciamiento y la compra de know-


how exclusivamente, equivale a la decisión de elegir el subdesarrollo voluntario. La
solución real de este problema es tener investigación y desarrollo propios y además
importar tecnología. Se trata de estrategias complementarias, no alternativas.

Las políticas de innovación

El cambio y su aceleración no siempre son fácilmente asimilables. Generan


temores, desajustes y resistencias. Hay personas, grupos, empresas y profesiones,
mejor o peor preparadas para afrontar el hecho de que el cambio se ha
transformado de excepción en regla. Desde el punto de vista social el fenómeno
más importante no es el cambio técnico en sí, sino el proceso mediante el cual ese
cambio y las invenciones se difunden. Hasta hace poco primaba la hipótesis de que
la difusión se producía en forma automática, siguiendo naturalmente al proceso
central de generación de conocimientos y cambios técnicos. Ahora sabemos que
no es así.

La velocidad creciente del cambio y la innovación hace necesario el desarrollo de


un conjunto de políticas que faciliten su asimilación y aprovechamiento. La
progresiva comprensión del proceso de innovación ha puesto de manifiesto la
importancia de actores hasta el momento poco reconocidos, en particular los
usuarios. El reconocimiento de estas pautas de difusión, la permanencia y
aceleración de los cambios tecnológicos y la importancia de la asimilación
conducen a prestar atención especial a quienes demanda cambios técnicos (y no
solamente a quienes los producen) y, más en particular, a tratar de entender cuáles
son los actores sociales que no plantean demandas con este contenido, o no
pueden hacerlas valer y por qué.

La innovación es un proceso que no se concentra en algún lugar privilegiado de la


sociedad o de la actividad económica, sino que se halla socialmente bastante
distribuido. Puede producirse en ámbitos muy diversos y ser protagonizada por
actores variados. Así, se la encuentra en laboratorios universitarios, fábricas de
maquinaria, fábricas que utilizan esa maquinaria, colectivos de trabajadores,
empresas y organismos públicos que definen líneas de inversión etc.

Además, la innovación da lo mejor de sí cuando se dirige a solucionar problemas


reales, planteados por alguien que puede aportar información e ideas sobre el tipo
de solución (cambio) que busca. Se produce así una interacción entre los saberes
del que demanda y del que propone la solución, que se fertilizan recíprocamente,
facilitando de este modo la utilidad social de la innovación y el proceso de difusión.

De hecho, al reconocer la importancia de estos factores (necesidad de estimular la


demanda del cambio, carácter distribuido de los actores e interacción entre éstos)
ha llevado en los países desarrollados a transformar las políticas de Ciencia y
Tecnología en políticas de Innovación, es decir en políticas orientadas a generar
innovaciones poniendo el conocimiento efectivamente al servicio de la solución de
problemas. Esas políticas incluyen el estímulo a la demanda de cambios
tecnológicos e innovaciones por parte de los productores y a la interacción entre los
diversos actores (en especial los del mundo académico y el de la producción).
Incentiva la innovación en todos los frentes, preocupándose por la calificación de la
mano de obra, el reciclaje de profesionales, el fortalecimiento de los servicios y la
información técnica.

Las oportunidades tecnológicas

La oportunidad tecnológica nace toda vez que nos disponemos a aprovechar la


gran flexibilidad de diseño que permiten las nuevas tecnologías, potenciando la
figura de aquellos que son capaces de interpretar un problema o una necesidad y
de buscar y construir una solución original, adaptada y económica. Es el
"profesional técnicamente preparado", el que diseña soluciones a la medida de su
cliente. Esta labor es económicamente fundamental: más del 80% del costo de un
diseño adaptado -en electrónica o en biotecnología- es valor agregado de
conocimiento local. En otras palabras, el componente "inversión" (importación de
piezas, partes, equipamiento) es comparativamente muy inferior y realmente
accesible. El valor agregado local es imprescindible y de enorme potencial.

El profesional técnicamente preparado es entonces una figura de la mayor


trascendencia.

En primer lugar, porque son legión los problemas para los cuales la relativa rigidez
del mercado tecnológico mundial no ofrece soluciones debido a diversos tipos de
inadecuación (precio, tamaño, excesiva sofisticación, condiciones de operación
diferentes etc).

En segundo lugar, el profesional técnicamente preparado abre y excita el diálogo


con su cliente sobre cuestiones tecnológicas, diálogo que está excluido en otras
formas usuales de transferencia de conocimientos. Este elemento es de la mayor
importancia, por cuanto muchas veces la decisión de invertir en tecnología se ve
enervada si no es posible establecer una relación de confianza con el proveedor. El
perfil clásico de un proveedor de tecnología apunta a convencer al cliente acerca
de la utilidad de soluciones ortodoxas para problemas que muchas veces son
imaginarios para dicho cliente.

En tercer lugar la presencia del profesional democratiza -al menos potencialmente-


el acceso a la modernización productiva, por cuanto aquél la aproxima a empresas
pequeñas o medianas que necesitan modernizarse para sobrevivir pero afrontan
por lo general barreras insalvables para lograrlo. Una de esas barreras es la
carencia de información acerca de cómo y para qué aprovechar la tecnología,
impedimento que comienza a caer en la interacción con el "profesional
técnicamente preparado" en cuestión.

El problema de la modernización tecnológica va bastante más allá de la mera


incorporación de máquinas o la adquisición de licencias: es el diseño completo de
un sistema en que maquinaria y organización, producción, control de calidad,
mantenimiento y comercialización armonizan sus respectivas competencias
maximizando el aprovechamiento de todos los recursos involucrados. Una gran
empresa puede contratar los profesionales y los consultores necesarios. No ocurre
lo mismo con las demás, pero éstas -las medianas y las pequeñas- tendrían
mejores oportunidades si se lograra algún tipo de organización sistemática de
diálogos e interacciones en que esta figura –el profesional técnico- estuviera
disponible.
Finalmente, el profesional técnico realiza un aporte en el campo de la identidad
nacional. Parte de esa identidad está constituida por la "capacidad de innovar en
condiciones de escasez", de la que abundan ejemplos. La conjunción entre las
grandes posibilidades de acción derivadas de la evolución tecnológica con esta
capacidad de tipo cultural para imaginar, encontrar e instrumentar soluciones
heterodoxas a problemas reales, indican que el Guatemala tiene a su alcance
formas propias y peculiares de poner en acción eficazmente la difusión tecnológica,
sobre la base de rasgos particulares de su identidad técnica. Este largo desarrollo
previo era imprescindible para la comprensión de nuestra propuesta. La
incorporación de un libro de texto de ciencia y tecnología, la expansión del insumo
"conocimiento", un amplio espectro de políticas de innovación, abrir caminos para
la difusión tecnológica sobre la base del las aptitudes propias de la cultura técnica
en Guatemala desarrollada a partir de la escasez, la inversión en educación, la
formación profesional de los empresarios, la apertura al cambio y la innovación, las
políticas destinadas a facilitar los procesos de asimilación y a estimular las
demandas de cambio tecnológico, se complementan para generar la propuesta
anterior.

El futuro del trabajo: cómo las máquinas reemplazarán a los humanos


Algunos robots reemplazarán al hombre, otros transformarán radicalmente sus
tareas ¿Comienza una era de desempleo masivo o solo de nuevos esquemas de
trabajo? En esta nota, las alternativas de un futuro para el que ya hay que estar
preparado. Por Nadia Nasanovsky.
El miedo no es nuevo pero parece más real que nunca. ¿Los robots dejarán a los
hombres sin trabajo o se convertirán en sus aliados? ¿Quiénes serán los más
afectados? ¿Cómo prepararse mejor para el mercado laboral del futuro? Nadie
tiene aún las respuestas definitivas a estas preguntas, pero lo que sí se sabe es
que en cuestión de pocas décadas asistiremos a una transformación
profunda de la producción de bienes y servicios que impactará de lleno en
los trabajadores y en las economías de todo el planeta.

"En el pasado, las revoluciones industriales fueron diferentes, porque siempre


permitían hacer el trabajo de la persona de manera más eficiente, la volvían más
productiva, generaban más empleo, creaban nuevos servicios. Si bien algunos
perdían el trabajo, lo que se creaba era tanto que el impacto neto era positivo",
explicó a DEF Patricio O'Gorman, investigador especialista en estrategias digitales
y coautor de Diginomics.

"Lo que se está viendo ahora es que esta nueva revolución es distinta, por el tipo
de reemplazo que se está dando. El trabajo se está reemplazando por máquinas,
robots o algoritmos, que hacen algo más eficientemente y no crean nada nuevo,
simplemente reemplazan la unidad básica de trabajo".

Si bien no hay acuerdo con respecto a cifras precisas, los expertos coinciden en
vaticinar que no falta mucho para que la automatización de los trabajos sea la
norma en todas las áreas. Según un informe de la consultora Accenture, el 37 %
del total de empleo privado de Argentina podría ser automatizado casi por completo
en los próximos 15 años. La transformación, según la compañía, "involucrará por
igual a todas las empresas, sin distinción de tamaño y a trabajadores de todas las
edades".

Ese porcentaje se eleva al 50 % a nivel mundial, de acuerdo con la firma McKinsey


& Company. "Estimamos que alrededor de la mitad de las actividades por las que
actualmente se les paga a los trabajadores en el mundo podrían ser automatizadas
al adaptar tecnología ya existente", sostiene un informe publicado en enero de
2017.

Sin embargo, más allá de la contundencia de estos guarismos, no se trata de un


fenómeno lineal. En McKinsey & Company trabajan con un marco temporal fijado
en el año 2055, pero destacan que este proceso podría atrasarse o adelantarse
hasta 20 años, dependiendo de varios factores, entre los que se incluyen la
factibilidad técnica, el costo tanto del software como del hardware necesarios y la
relación con el precio de la mano de obra humana.

Los rubros más afectados serán aquellos en los que los trabajadores realizan
tareas simples y repetitivas. "Los
trabajadores que hacen
actividades que incluyen trabajo físico
predecible, así como procesamiento y
recolección de datos, son los que tienen mayor probabilidad de ver sus tareas
automatizadas mediante la adaptación de tecnologías que ya existen", explicó a
DEF en diálogo telefónico Michael Chui, socio de McKinsey Global Institute y
miembro del equipo que redactó el informe.

La primera ola de automatización robótica afectó a las grandes plantas de producción de


automóviles. Foto: AFP.

"Así como la primera ola de automatización robótica afectó a las grandes plantas
de producción de automóviles, la automatización digital apunta a los empleos
administrativos simples, que no requieren criterios sofisticados de decisión",
aseguró por su parte O'Gorman. "En general, las profesiones muy atadas a la
información y a su procesamiento tenderán a sufrir más a medida que la
inteligencia artificial siga mejorando".

Los telemarketers, los cajeros y los choferes de vehículos figuran entre los que más
riesgo tienen de ser reemplazados en su trabajo por una máquina.

"En general, cualquier empleo simple en el que no se realicen tareas heterogéneas,


está en riesgo", detalló O'Gorman. Por el contrario, quienes llevan adelante tareas
de management, de interacción social, o que requieran aplicar cierto grado de
expertise en procesos de toma de decisiones, enfrentarán un riesgo mucho menor
de ver sus trabajos automatizados. En este grupo se encuentran los terapeutas,
nutricionistas, enfermeros, entre otros.

"Ya estamos viviendo esta transformación sin darnos cuenta", aseguró O'Gorman y
citó como ejemplo la manera en que ahora se sacan los pasajes y alojamientos en
vacaciones, todo sin recurrir a empleados de una agencia de viaje, sin
intermediario, mediante sitios web, con algoritmos. Sin embargo, el especialista
aclaró que "el reemplazo no va a ser persona por robot sino persona por un soporte
híbrido, en varias industrias".

¿Menos trabajos o nuevos trabajos?

Pero incluso los más optimistas admiten que la automatización tendrá un impacto
negativo en los niveles de empleo. Un informe de McKinsey Global Institute de
enero de 2016 prevé una pérdida neta de 5,1 millones de puestos de trabajo a
nivel global entre 2015 y 2020, mientras que la ganancia neta para el mismo
período se estima en 2 millones. La mayores pérdidas se concentrarán en los
sectores administrativos, de acuerdo con las estimaciones.

Para Chui, sin embargo, si bien la amenaza del desempleo es real, las
máquinas serán las encargadas de mantener los niveles de producción en un
mundo que cada vez tendrá menos trabajadores. "Muchos se preocupan de que
con la automatización se producirá desempleo masivo. Nuestro punto de vista es
que lo que se requiere es en realidad un plan para un reordenamiento masivo de
trabajadores", señaló.

"En los últimos años, el crecimiento económico ha dependido del aumento en la


fuerza laboral, es decir, había más trabajadores, más mujeres, personas que vivían
más años, etc. Sin embargo, en los próximos 50 años, todo eso va a terminarse
simplemente debido al envejecimiento de las poblaciones. No tendremos más la
cantidad de trabajadores necesaria para mantener el crecimiento del PBI per
cápita. Necesitamos que todos trabajen, tanto las máquinas como las
personas, para lograr el crecimiento económico que requerimos".

En un intento de zanjar el debate entre quienes auguran una pérdida neta de


puestos de trabajos y quienes, por el contrario, relativizan este pronóstico, James
Bessen, profesor de la Boston University School of Law, diseñó un modelo
económico de la demanda laboral que toma como variable independiente el uso de
computadoras por trabajadores en cada trabajo e industria, y como variable
dependiente, al crecimiento relativo del empleo.

Los trabajadores que hacen actividades que incluyen trabajo físico predecible tienen mayor
probabilidad de ver sus tareas automatizadas. Foto: AFP.

"La idea de que la automatización lleva necesariamente a una pérdida masiva de puestos
de trabajo ignora la respuesta económica dinámica a la automatización, que incluye tanto
cambios en la demanda como la sustitución entre trabajos", explicó Bessen en un artículo
para el Foro Económico Mundial.
Su investigación revela que los trabajos con mayor uso de computadoras tienden a crecer
más rápido (1,7 % al año), y que lo que sucede en realidad es un fuerte efecto de
sustitución, por el cual no se trata de máquinas que reemplazan a humanos, sino de
humanos que usan máquinas para reemplazar a otros humanos, tal como hicieron
los diseñadores gráficos con las computadoras que desplazaron a los maquetadores
en su momento.

Pero más allá de los debates sobre las cifras de la pérdida de puestos de trabajo, la
necesidad de que los trabajadores se reconviertan, de que se adapten a los cambios,
es innegable. Este proceso trae aparejado inevitablemente el temor a un aumento de las
desigualdades entre trabajadores ricos, muy bien preparados, y aquellos sin capacitación
acorde a este nuevo escenario.

"La evidencia sugiere que mientras las computadoras no causan pérdidas de


puestos de trabajo, los trabajadores de menores salarios están perdiendo sus
trabajos", asegura Bessen. "Estos trabajadores necesitan nuevas habilidades para
poder hacer la transición hacia trabajos nuevos y mejores pagos".

Ya existen robots dedicados a atender establecimientos

gastronómicos en varios países de Oriente. Foto: AFP.

En un escenario de hombres trabajando


junto con máquinas, los expertos coinciden
en que habrá trabajadores que serán
desplazados, sus tareas serán automatizadas, para mayor eficiencia. El problema
que se deriva de esta situación es qué hacer con estas personas, en qué
emplearlas y cómo.

"La gente va a tener que trabajar junto con las máquinas para producir el
crecimiento en el PBI per capita al cual los países del mundo aspiran", afirman los
investigadores de McKinsey Institute en su informe. "La implementación efectiva de
la automatización requiere la transformación de los procesos al interior de las
empresas, cambiar lo que la gente hace, inclusive aquellos que no se ven
reemplazados directamente por la automatización. Los procesos de trabajo van a
cambiar, nuevos roles van a surgir, como el de entrenador de robots".
"La gente deberá estudiar y aprender robótica, ciencias de la computación,
ingeniería, todos esos campos que producen, desarrollan y despliegan estas
tecnologías", respondió Chui a la consulta sobre cómo se reacomodarán los
trabajadores en este escenario. "Representarán un pequeño porcentaje de la
población, pero es un porcentaje importante", agregó. Para el resto de los
trabajadores, Chui recomienda prestar atención a estas tendencias y desarrollarse
profesionalmente en función de ellas.

O'Gorman es menos optimista: "Si suponemos que la demanda en un sector dado


no subirá, como para que sean necesarios estos trabajadores reemplazados por
máquinas, el gran debate que viene es qué hacer con ellos, con los que se quedan
afuera".

El especialista advirtió sobre la necesidad de empezar a pensar qué medidas tomar


en materia de seguridad social, por ejemplo, cuando los países ya no requieran
más gente para mantener sus niveles de productividad. "Nos tenemos que preparar
para un mundo con desempleo masivo y estructural, no ocasional. Va a haber
desempleo masivo por estas cuestiones de reemplazo", aseveró.

¿Pueden reemplazar los robots la mano de obra de los seres humanos?

Los robots mejorarán su capacidad de interacción con las personas, a la vez que
incrementarán sus funciones automáticas, ¿pero llegarán a superarnos?

¿Pueden reemplazar las máquinas los trabajos que hoy realizan los seres humanos
y llegar a ser más ‘inteligentes’? Esa es una de las grandes incógnitas que ha
planteado el desarrollo tecnológico en los últimos años.

Andrés Faiña, investigador de robótica de la Universidad de Copenhague afirmó en


el Congreso Internacional en Aplicaciones de la Inteligencia Artificial, realizado por
la Universidad Nacional, que “todavía debemos avanzar en garantizar en que los
robots sean capaces de realizar sus funciones de manera fiable”.

Aunque los robots y la inteligencia artificial hayan incursionado en áreas como las
finanzas, la salud y la automatización de procesos industriales, expertos coinciden
en que aún falta mucho para llegar a modelar correctamente la realidad.

¿Cuáles son los riesgos de carácter ético?

la Unesco publicó un documento titulado: ‘Inteligencia artificial, promesas y


amenazas’. Allí, un aparte del libro está dedicado a los líos éticos que conllevan la
inteligencia artificial y su aplicación en robots.

“Con la IA no solo la mayoría de las dimensiones de la inteligencia –salvo tal vez el


humor- son objeto de análisis y de reconstrucciones racionales con ordenadores,
sino que además las máquinas traspasan nuestras facultades cognitiva en la
mayoría de los terrenos, lo cual despierta temores de riesgos de carácter
ético”, dice el informe.

Estos riesgos, según la Unesco, son de tres órdenes: “la escasez de trabajo, que
sería ejecutado por máquinas en lugar de seres humanos; las consecuencias
para la autonomía del individuo, en especial para su libertad y su seguridad; y la
superación del género humano, que sería sustituido por máquinas cada vez más
inteligentes”.

Sin embargo, el informe plantea una gran pregunta: ¿Se volverán las máquinas
más inteligentes que los seres humanos? No, afirma el documento y asevera que
se trata de un mito alimentado por la ciencia ficción.

En cuanto al trabajo y a la mano de obra que podrían llegar a reemplazar las


máquinas, Ricardo Ramírez, líder del grupo de investigación de plataformas
robóticas de la Universidad Nacional, explica que el ser humano tiene gran
cantidad de habilidades y capacidades que la tecnología de los robots aún no
pueden imitar.

Variables que impiden el reemplazo del hombre

Ramírez también mencionó que hay dos variables que limitan a las máquinas. Uno
es el consumo excesivo que energía que requieren algunos aparatos para
desarrollar sus actividades.

Por ejemplo, el académico mencionó que algunos prototipos que simulan algunas
tareas cotidianas de los seres humanos, como caminar o cumplir con labores
domésticas, suelen tener una vida útil de su batería de entre 15 y 20 minutos.

El segundo tiene que ver con los costos de incorporar computadores de alta gama
que les permitan a los robots reconocer los espacios y tomar decisiones en la
marcha.

“Para un ser humano es fácil identificar si está en una sala, una habitación o un
salón. Los robots necesitan cámaras y computadores que procesen esa
información”, añade Ramírez.

Para entender ese punto, el profesor establece una relación: un computador de


casa tiene cuatro núcleos para procesar información. Sin embargo, se necesitan
artefactos de hasta 50 núcleos para realizar estas operaciones de
reconocimiento de espacios en un tiempo prudente, lo cual encarecería los
costos de producción de robots.

--- ¿Ventajas o desventajas para la humanidad? ---

A este debate técnico se le puede adicionar la polémica que crearon tanto el


fundador de Facebook, Mark Zuckerberg, y el de Tesla, Elon Musk.

En su momento, Musk dijo que la inteligencia artificial puede ser “la mayor
amenaza para la humanidad”. Entre tanto, Zuckerberg dijo que “hay quienes son
pesimistas y exageran todos estos escenarios apocalípticos. Simplemente, no lo
entiendo (…) Es muy negativo y de alguna manera pienso que es bastante
irresponsable”.

Ricardo Ramírez opina que los robots y la inteligencia artificial (IA) pueden traer
ventajas y desventajas para la humanidad. “Hay beneficios como en el apoyo de
labores domésticas en el hogar o el acompañamiento de personas (solas). Pero
eso depende mucho de la consciencia de los valores de las personas y el uso que
le den a la tecnología. Ya se ha visto, por ejemplo, el uso de drones para
transportar droga”.

Por eso el profesor de la Nacional hace un llamado para que el uso de las
herramientas tecnológicas que están al servicio de las personas, no terminen al
servicio del crimen o a la afectación de la integridad de otros seres humanos.

Fuente: El Tiempo/GDA

¿Bajo qué parámetros éticos toman decisiones los artefactos autónomos con
inteligencia artificial (IA)? ¿Cómo se estudia e incide en la ética de lo
velozmente cambiante?

La ciencia de la computación y la ética no son disciplinas cercanas; sin


embargo, se hace crecientemente necesario su diálogo a partir del acelerado y
poderoso efecto que la computación está llegando a tener en nuestras vidas. Ya se
puede pensar en aplicaciones de IA, “sistemas inteligentes —en el sentido de que
perciben y actúan en cierto entorno, y gracias a inteligencia (nociones de
racionalidad estadística y económica) realizan buenas decisiones, planes o
inferencias”, para asignación de un crédito hipotecario o de órganos donados, para
la creación de un portafolio en la bolsa de valores, o para conducir vehículos
autónomos por ejemplo (p.ej.). El diseño de IA, en este último, campo muestra la
urgencia de pensar los retos éticos que deben enfrentar cotidianamente: p.ej.
mayor prioridad en la seguridad de los pasajeros o de los peatones, de los
animales o del auto; sobre si las normas diseñadas para la falibilidad humana
deberían aplicar; y, al fin y al cabo, sobre si un sistema de tráfico ideal sería en
efecto uno robótico. Asimismo, lo considerado normal, indignante, posible e
imposible ha cambiado vertiginosamente en los últimos años a partir del extendido
y, a veces, problemático uso de la BIGDATA de los usuarios de las redes virtuales
(p.ej. filtración de información Facebook, cuentas automáticas o bots en Twitter,
estudio de perfiles de Okcupid, etc.).
La aplicación vanguardista dentro de la IA es el machine/deep learning (ML):
algoritmos para encontrar, en los datos, patrones que permiten modelarlos para
hacer predicciones. La IA es supervisada o no supervisada dependiendo del
tratamiento de los datos y el objetivo: datos etiquetados para hacer predicciones o
datos no estructurados para encontrar patrones. El objetivo es desarrollar la
habilidad de aprender automáticamente y mejorar a través de la experiencia sin ser
explícitamente programado para hacerlo. Google ha desarrollado una plataforma
web dedicada al aprendizaje de ML y recientemente concentran esfuerzos en
un sistema de IA capaz de crear IA más sofisticadas que las de sus programadores
humanos.
Los sistemas actuales están todavía lejanos de la distopía en que la IA decide
optimizarnos (Skynet, Yo robot, etc.) que Asimov quiso
prevenir infructuosamente con sus leyes de la robótica de 1945. Actualmente,
aportan en el comercio a la predicción de ventas y a la optimización de precios; en
marketing, para análisis de redes sociales y consumo virtual para mejorar
posicionamiento de publicidad; en salud, para predicción de enfermedades,
diagnóstico y prevención de fraudes, etc. Sin embargo, en una carta abierta del
2015, personajes como Hawkins y Elon Musk proponen mayor investigación para
maximizar el beneficio social de la IA. Las pistas incluyen retos de corto plazo y
otros temas más complejos como qué ética empotrar en los vehículos automáticos;
cómo controlar la automatización de armas (ver 1, 1.1 y 2). Darle poder de
decisión institucional a sistemas ML, especialmente al no supervisado, puede ser
peligroso debido a que aprenden a partir de información histórica inevitablemente
sesgada y, también, porque sus redes neuronales crean información y
posibilidades a una velocidad sin precedente, sin legislación ni supervisión que le
pueda seguir el paso.
Por ejemplo, Carnegie Council publica un ensayo que muestra que la IA puede
tener gran utilidad para el Estado en tres grandes áreas éticamente problemáticas:
el sistema judicial, los programas de inteligencia y las fuerzas armadas. Pero como
las maquinas crean sus propios modelos sobre cómo tomar decisiones, se puede
generar una disminución e incluso un desfase en la transparencia de los gobiernos.
También, se ha criticado los sesgos de la IA hacia minorías; los sistemas identifican
patrones, construyen modelos y predicen a través de data histórica por lo que
pueden replicar los antiguos sesgos negativos mayoritarios hacia ciertos grupos.
En el sistema penitenciario EEUU, se utiliza IA para predecir riesgo de reincidencia
criminal, mostrando un sesgo racial importante. Y estos problemas no toman en
cuenta todavía las consideraciones éticas de otro nivel que implicaría la creación
de inteligencia humanoide artificial y los derechos que le correspondería.

¿Cuál es la importancia de la tecnología de los procesos de manufactura en


el mundo moderno?

Para ser competitivo hoy, los insumos de conocimiento son la clave. La


universidad actual sabe que los requerimientos en materia de conocimiento han
crecido en forma dramática. En los nuevos productos y procesos de producción, en
la práctica ha desaparecido la distancia temporal entre los conocimientos científicos
y su explotación tecnológico-comercial, especialmente en algunas áreas. La
producción se diversifica y se libera velozmente de los obstáculos técnicos, y está
en condiciones de responder también velozmente a la diversificación recíproca de
la demanda. Para poder actuar en el mercado mundial es imprescindible incorporar
conocimientos a lo que se produce.

La constante irrupción de conocimientos nuevos alimenta la producción de nuevos


avances y descubrimientos, en una espiral de crecimiento exponencial. El cambio
produce más cambio y además se acelera.
La incorporación de conocimientos y tecnología no es un proceso simple. No basta
con adquirir las máquinas o las licencias para lograrlo. Este es un error frecuente y
fatal.

Porque comprar bien, usar bien, mantener bien y -sobre todo- adaptar, cambiar,
mejorar e integrar armónicamente lo nuevo con lo que ya se tiene, exige un caudal
muy importante de conocimiento, seguramente no muy inferior que el necesario
para "hacer".

Además no es posible conseguir en el mercado tecnológico mundial todo lo que el


país o sus sectores productivos necesitan. Suele suceder que los requerimientos
son muy específicos, y mientras la oferta es relativamente rígida, la demanda
tiende a ser potencialmente muy diversificada.

Para comprar bien hay que estar al nivel de aquel a quien se compra. Y a la vez, la
transferencia de conocimientos es un paso imprescindible en el proceso de
aprendizaje que lleva a maximizar la propia capacidad de creación e innovación.

El dilema puede plantearse en términos de ¿comprar o hacer?, pero tal


planteamiento es básicamente falso. Ningún país puede plantearse hacerlo todo, y
en un país subdesarrollado como Guatemala la necesidad de priorizar implica
justamente no hacerlo todo. En realidad se trata de "hacer uno lo máximo posible
partiendo del máximo que hicieron otros", que se traduce en comprar todo lo que es
estándar (donde la relación calidad/costo ha sido maximizada por la producción
masiva) y proceder a agregar sistemáticamente valor con lo que uno mismo hace.

El planteamiento anterior es válido, pero hay que adaptarse a las necesidades de


formación del futuro profesional, porque depender de la importación de tecnología,
el licenciamiento y la compra de know-how exclusivamente, equivale a la decisión
de elegir el subdesarrollo voluntario. La solución real de este problema es tener
investigación y desarrollo propios y además importar tecnología. El libro de texto
que se propone es como una estrategia complementaria, no alternativa.

Tecnología es todo "el conjunto de conocimientos propios de los oficios mecánicos


y artes industriales". Las grandes fábricas modernas, con sus complicados
mecanismos y los procedimientos industriales que en ellas se desarrollan, son el
exponente del progreso tecnológico. Cuando hablamos de tecnología en los cursos
que se imparten, en los futuros profesionales solo vienen a la mente palabras
como: computadoras, juegos de videos, discos compactos, etc., sin fijarnos que
esta palabra se refiere al sin número de máquinas o herramientas movidas por una
fuerza no humana pero que tiene que ser dirigida por el hombre. Hay que señalar
que varias de estas maquinarias trabajan por su cuenta pero fue un hombre quien
la puso en marcha y quien la podrá detener. La tecnología, con sus pros y sus
contras, se ha desarrollado de forma maravillosa y ha permitido que se prolongue
la vida, se mejore el sistema de salubridad y que hayan avanzado los métodos de
producción y distribución de diferentes cosas como la cosecha de alimentos, la
ropa, etc. La tecnología también ha contribuido al desarrollo de nuevas técnicas de
manufactura y ha hecho que las comunicaciones y la transportación sean más
rápidas y eficientes.

El mundo se ha achicado debido a los avances de la tecnología moderna. Tan es


así que ya ésta se ha convertido en parte fundamental para el desarrollo funcional
del país. Hemos llegado al punto de que una sociedad sin tecnología es como una
sociedad prehistórica. No se olvide que, el futuro profesional egresado de la
universidad tiene que ser un agente de cambio tecnológico.

Por el conocimiento que se tiene de la industria en el país, se ha observado que la


experiencia de los egresados de las universidades, se hace evidente que al
ingeniero le resulta muy difícil comunicarse directamente con el obrero. No utilizan
el mismo lenguaje, el obrero no sabe interpretar un dibujo técnico y el ingeniero no
sabe manejar la maquina herramienta. Falta el elemento que combine la habilidad
del obrero con la capacidad creativa del ingeniero. Es evidente que un profesional
formado con el rigor de los programas de desarrolla una capacidad de aprendizaje
respetable. Es cierto que con el paso de los años, estos profesionales aprenden
hasta las tareas más prácticas y adquieren la habilidad necesaria para hacer un
buen papel en la industria Sin embargo, queda evidenciado que en el país falta un
profesional de la ingeniería orientado hacia la práctica.

Los ingenieros del principio del siglo anterior eran gente generalmente bastante
practica. Manejaban los conocimientos científicos de la época y poseían
habilidades que les permitían construir y fabricar ellos mismos piezas y aparatos.
La ingeniería cubría entonces las dos columnas centrales del cuadro. Los
ingenieros se comunicaban directamente con los obreros calificados.

El crecimiento acelerado del conocimiento científico durante el siglo pasado ha


ampliado la base científica de los currícula ingenieriles. Muchas universidades
inclinaron sus currícula mas hacia la ciencia que hacia la parte del saber hacer, tan
importante para formar este "resolvedor de problemas" que es el ingeniero.

Debido a esta orientación que se ha tenido en las universidades tradicionales hacia


el "saber puro", existe en nuestro medio por el tipo de tecnología que aún se
maneja la necesidad de un profesional de la ingeniería, que sea más orientado
hacia la práctica. El libro de texto que se propone, va a ser multidiciplinario en lo
que a tecnología se refiere. Lo que se persigue es precisamente que llene ese
vacío, de que se ha hablado.

En la mayoría de los casos, las universidades no son suficientemente flexibles para


iniciar nuevos programas, con enfoques diferentes a las tradicionales.

¿ Qué nos dice la teoría de Marx sobre los factores tecnológicos?

La teoría Marxista concede no obstante gran importancia a los factores


tecnológicos, ya que la tecnología es el factor mediador entre el hombre y su
relación con el mundo exterior, material. Pero al actuar sobre ese mundo material,
el hombre no solo lo transforma para sus propios fines útiles (esto es, "Los
productos de la naturaleza se convierten directamente en órganos de la actividad
del obrero."), sino que también realiza, inevitablemente, un acto de
autotransformación y autorrealización.

La tecnología comprende los instrumentos que determinan la efectividad del


hombre en su actividad encaminada a conseguir unos objetivos que no solo están
configurados por sus necesidades instintivas básicas, sino también de aquellas que
formula y define su propio cerebro: "Una araña efectúa operaciones que semejan
las manipulaciones del tejedor, y la construcción de los panales de las abejas
podría avergonzar, por su perfección, a más de un maestro de obras. Pero, hay
algo en que el peor maestro de obras aventaja, desde luego, a la mejor abeja, y es
el hecho de que, antes de ejecutar la construcción, la proyecta en su cerebro. Al
final del proceso de trabajo, brota un resultado que antes de comenzar el proceso
existía ya en la mente del obrero".

Marx planteó y abordó un problema básico en relación a la naturaleza de la


tecnología. Está ampliamente aceptado que las sociedades capitalistas modernas
han alcanzado elevados niveles de productividad debido a la aplicación sistemática
de conocimientos científicos a la esfera productiva.

El paso decisivo fue el desarrollo de una tecnología mecánica que no dependiera


demasiado de las capacidades o la voluntad humana y que dividiese el proceso
productivo en una serie de pasos analizables por separado. La importancia
histórica del sistema manufacturero estribó en el hecho de que precisamente
aportó esa división. La importancia histórica de la gran industria moderna residía en
el hecho de haber incorporado esos pasos separados a unos procesos mecánicos,
a los que ya podían aplicarse rutinariamente los conocimientos y principios
científicos.

En las primeras fases del desarrollo de la industria moderna, la maquinaría se


producía con métodos artesanales y manufactureros. Esta es la fase de la
operación de autopromoción, la fase en la cual la gran industria moderna, completa
su liberación de las limitaciones de la vieja tecnología. "Por todas éstas razones, la
gran industria no tuvo más remedio que apoderarse de su medio característico de
producción, de la máquina, y producir máquinas por medio de máquinas. De este
modo, se creó su base técnica adecuada y le levantó sobre sus propios pies. En
efecto, en los primeros decenios del siglo XIX, al desarrollarse la industria
maquinizada, la maquinaria se fue adueñando paulatinamente de la fabricación de
máquinas herramientas".

VIVIR CÓMODAMENTE: Inventos y Tecnologías


En un principio cuando comenzó la tecnología, con los primeros teléfonos móviles,
nadie creyó que eso calaría en la sociedad. Se veía como un producto exclusivo
destinado a mandatarios y altos ejecutivos, pero la realidad fue totalmente distinta.
Hoy el teléfono móvil es el dispositivo MAS utilizado, con un grado de adopción del
82,8% y el más utilizado para acceder a Internet, rozando el 90% de usuarios.

Actualmente las empresas tecnológicas ejercen el papel de gurús, apostando e


invirtiendo en diferentes tecnologías que, además de esperar que les generen
grandes beneficios, cambiarán la vida de las personas para siempre.

Aunque los gustos del consumidor son un misterio y nunca se sabe qué es lo que
tendrá éxito y qué no, desde Alphabet, la empresa matriz de Google, insisten en
que hay seis tecnologías que cambiarán el mundo y nuestras vidas, tales como:
1. REALIDAD VIRTUAL Y AUMENTADA

Para Alphabet el futuro no se concibe sin un visor de realidad virtual o aumentada


sobre sus ojos. Sus dos apuestas más recientes: Daydream, un visor y Project
Tango, un entorno de realidad aumentada para smartphones. Están desarrollando
una nueva versión de las Google glasses.

2. INTELIGENCIA ARTIFICIAL

La inteligencia artificial es otra de las tendencias que más controversia crea, con
muchos defensores y también muchos enemigos. Para Alphabet, la IA será un
complemento del trabajo realizado por muchas personas simplificando procesos. El
sector educativo será uno de los mayores beneficiados.

3. AUTOMOVILES AUTÓNOMOS

Los Automóviles sin conductor de Google son una de sus principales apuestas.
Creen que ayudarán a evitar las muertes causadas por los accidentes de tráfico y
mejorar el transporte de personas y mercancías.

Algunas de estas tendencias, como la inteligencia artificial, ya ha protagonizado


muchas películas de ciencia ficción, generando debates en la vida real con
defensores y detractores de la talla de Hawking.

La posibilidad de que la inteligencia artificial pueda rebelarse contra las personas


no cabe dentro del pensamiento de Alphabet, quienes afirman que servirá para
mejorar el trabajo de las personas y facilitar los procesos más tediosos.

También en más de una película hemos visto cómo una suculenta cena era
sustituida por píldoras o comida artificial. Nos vienen avisando desde hace años,
¿habrá llegado el momento de la verdad?. Yo creo que si, y debemos estar
preparados para esta evolución.

LA INTELIGENCIA ARTIFICIAL PUEDE EJECUTAR PROCESOS


PRODUCTIVOS Y DE GESTIÓN DE LAS EMPRESAS

Los robots mecanizados y los programas de inteligencia artificial pueden


reemplazar la mano de obra humana en distintos sectores.

Se habla de que en un futuro la inteligencia artificial hará un mejor trabajo que los
seres humanos. Según diversos estudios, hay un número de empleos que
quedarán obsoletos con las nuevas tecnologías de la información, ya que los
algoritmos de los computadores comenzarán a tomar decisiones cada vez más
complejas.
Principios de la inteligencia artificial

El debate que nace a partir de estos temas plantea que, llegará el día en el que la
tecnología supere a las personas. La ley de Moore sostiene que aproximadamente
cada dos años se duplica el número de transistores en un microprocesador, lo que
en simples palabras significa el crecimiento exponencial de la capacidad de
computación. Esta ley lleva más de 50 años vigente, lo que explica la constante
evolución de la tecnología, de la que somos testigos. Según el creador de este
principio, el desarrollo debería empezar a frenarse entre este año y el 2022. Pero
por otra parte existe la ley de los Rendimientos Acelerados, que es una
generalización de la teoría anterior, aplicada a las tecnologías. Según estos
principios, siempre que la tecnología llegue a un límite, existirá otra creación que
permitirá superar este obstáculo.

El impacto de la Inteligencia Artificial en las empresas

En el mundo existen diversas empresas que ya están utilizando la inteligencia


artificial, lo que les permite descifrar los momento en los que los usuarios se
sienten frustrados frente a este sistema.

Sin embargo, según Harvard Business Review, esto no significa que la inteligencia
artificial vaya a aumentar la productividad de los trabajadores ni que los vaya a
reemplazar por completo.

“Casi todos los trabajadores tienen elementos mayores que, en el futuro previsible,
los ordenadores no serán capaces de dominar”. HBR

Aunque igualmente tendremos que admitir que algunos trabajos de conocimiento si


se someterán al ascenso de la inteligencia artificial.

A continuación te presentamos una lista de los puestos de marketing y ventas que


en un futuro podrían llegar a sucumbir por completo ante la inteligencia artificial.

1. Ejecutivos de telemarketing

Hoy en día las llamadas automáticas, en cierta parte, ya han reemplazado a las
personas en varios productos y servicios.

2. Digitadores contables

Los sistemas de gestión presupuestaria y contable ya cuentan con altas


capacidades de gestión y automatización.

3. Recepcionistas

Los sistemas de agenda y telefonía automático han reemplazado varias de las


funciones tradicionales de este empleo. Tanto en la atención del público como en el
direccionamiento de información a la empresa. Donde podemos ver que se llevó a
cabo este cambio es a través de los chatBOTs, que responden a preguntas
comunes utilizando sistemas de aprendizaje automático.

4. Encargados de empaque y distribución

Existen empresas de almacenaje y distribución que ya trabajan con drones y robots


que son impulsados por la inteligencia artificial. Por otro lado la inteligencia artificial
está desarrollando esta aprendiendo a tomar decisiones, las que antes resolvía una
persona.

5. Correctores de prueba

Los correctores gramaticales y ortográficos van aprendiendo de los errores y


correcciones de los usuarios. En un futuro ya no será necesario que alguien corrija
o verifique tu redacción ya que el aprendizaje automático tomará en cuenta las
reglas gramaticales como los términos propios de la industria y las empresas.

6. Ejecutivos de ventas

No importa el área, las labores de los ejecutivos se están volviendo obsoletas con
la inteligencia artificial. La verdad es que como el cliente hoy en día investiga y
cotiza online sus alternativas de compra, ya no es necesario tener un asistente de
venta.

7. Investigadores de mercado

Las empresas tienen acceso a todo tipo de material con un nivel de profundidad
digno de un buen analista de mercado. Con la apertura de la información en
internet y con el incremento de sistemas de análisis de Big Data online, se hace
cada vez más fácil automatizar el análisis de métricas y estadísticas.

No queda duda que la inteligencia artificial toma cada vez más relevancia dentro
los procesos productivos y de gestión de las empresas, esto acarrea menor margen
de error y mayor nivel de productividad. Si estás listo para dar el salto a la
transformación digital y utilizar herramientas la inteligencia artificial a tu favor.
http://www.fgcsic.es/lychnos/es_es/articulos/inteligencia_artificial

https://www.muyinteresante.es/tecnologia/articulo/ventajas-y-riesgos-de-la-inteligencia-artificial-
651449483429

https://www.infobae.com/def/desarrollo/2017/12/29/el-futuro-del-trabajo-como-las-maquinas-
reemplazaran-a-los-humanos/

http://blog.aceleracion.cl/articulo/como-influye-la-inteligencia-artificial-en-la-economia-y-los-
negocios

http://blog.aceleracion.cl/articulo/la-inteligencia-artificial-puede-ejecutar-procesos-productivos-y-
de-gestion-de-las-empresas

https://cenizasvolatiles.wordpress.com/2011/05/28/pragmatismo-e-inteligencia-artificial/

http://www.url.edu.gt/PortalURL/Archivos/83/Archivos/Departamento%20de%20Investigaciones%
20y%20publicaciones/Articulos%20Doctrinarios/Ingenier%C3%ADa/Procesos%20de%20manufactur
a%20y%20tecnologia.pdf

https://comunidad.iebschool.com/aynarc/2017/11/29/5/

Вам также может понравиться