Академический Документы
Профессиональный Документы
Культура Документы
ONTOLOGÍA
Es la parte de la filosofía que investiga en qué consiste el ser y cuáles son los
ámbitos o regiones del ser fundamentales.
Aunque este término se introduce en el siglo XVIII para indicar la ciencia del ser
en general (lo que Aristóteles llamó “filosofía primera” y luego recibió el nombre de
metafísica), la ontología ha sido una disciplina practicada por los filósofos desde el
comienzo mismo de su historia.
La ontología es la disciplina filosófica más importante. El resto de disciplinas
(antropología, teoría del conocimiento, teología racional...) dependen de un modo u
otro de ella. Etimológicamente la ontología se puede definir como el logos o
conocimiento del ente. Y de forma técnica se la suele definir como la ciencia del
ente en tanto que ente. Ente es todo aquello que tiene ser; del mismo modo que
llamamos estudiante a todo persona que estudia, o amante al que ama, ente es el
término que podemos utilizar para referirnos a las cosas en la medida en que éstas
poseen ser. Desde este punto de vista las piedras, los animales, las personas, Dios
mismo son entes puesto que poseen algún tipo de ser, aunque cada uno a su
manera. Los objetos matemáticos e incluso los meramente imaginados también
tienen un ser (estos últimos un ser ficticio o irreal).
Todas las ciencias o saberes se refieren o estudian los entes, unas los entes
físicos, como las ciencias físicas, otra los entes matemáticos, como la matemática,
otra los seres vivos, como la biología; pero se fijan en un aspecto particular de cada
objeto que estudian: la física estudia los seres físicos como las piedras y también el
cuerpo humano en la medida en que tienen dimensiones físicas; los biólogos, por el
contrario, estudian también al hombre pero en la medida en que está dotado de
ciertas actividades y funciones que llamamos vitales. La ontología también estudia
las piedras, los animales, los números, los hombres, pero fijándose en su ser, y
trata de establecer la dimensión o característica esencial que les define de ese
modo y no de otro. Esto es lo que quiere indicarse con la segunda parte de la
definición técnica de la ontología: la ciencia o saber relativa al ente en tanto que
ente, en tanto que dicho ente tiene o participa de alguna modalidad de ser. En este
sentido, la ontología es la ciencia más universal de todas puesto que se refiere a la
totalidad de las cosas y no hay nada que no caiga bajo su consideración.
Se han dado distintas respuestas a las preguntas básicas de la ontología (en
qué consiste ser y cuáles son los seres fundamentales); así, por ejemplo, para
Platón el ser consiste en ser eterno, inmaterial, inmutable y racional, y los seres
son de forma plena las Ideas; para Santo Tomás el ser consiste en ser eterno,
infinito y dotado de consciencia y voluntad, y el ser pleno es Dios; para Nietzsche el
ser consiste en cambio, temporalidad, nacimiento y muerte e irracionalidad y los
seres son los objetos del mundo fugaz de los sentidos.
Aunque desde el comienzo de la filosofía todos los filósofos defendieron una u otra
tesis ontológica, se suele indicar que es Parménides realmente el primero que de
forma explícita tiene un discurso ontológico, convirtiéndose así en el padre de la
ontología.
EL PROBLEMA ONTOLÓGICO DE QUINE
El filósofo Willard van Orman Quine presentó lo que él llamaba «el problema
ontológico» en su artículo Sobre lo que hay:
La mente y lo mental: Al abrir una cabeza, lo que vemos no es una mente, con
pensamientos, ideas y recuerdos, sino materia. ¿Será que lo mental es una
ilusión, y que todo lo que hoy describimos en términos mentales
puede reducirse a los procesos físicos que observa la ciencia? ¿O será que lo
mental es algo efectivamente existente, inmaterial e inobservable? 7 Para un
poco más de discusión, véase El problema mente-cuerpo.
Los agujeros: A primera vista, los agujeros están "hechos de nada". ¿Cómo es
posible, pues, referirnos a ellos como si fueran objetos comunes? ¿Cómo es
posible percibirlos? ¿Qué percibimos?13
Para Heidegger otro de los atributos del Dasein es ser “un ser que, en su ser, se le
va el ser”. Muchos se sentirán desalentados al escuchar esa frase que tiene la
apariencia de una “jerigonza filosófica”, de un extraño gargarismo. Pero tomémosla
con benevolencia y examinemos lo que el filósofo busca expresar. Traduzcamos
esa hermética frase al sentido común. Con ella, Heidegger procura señalarnos que
el ser humano es un ser que se ve obligado a hacerse cargo de su ser, sin lo cual
su ser corre el peligro de desintegrarse, de dejar de ser. De no hacerse cargo de su
ser, éste “se le va”.
Ya Blaise Pascal (1623-1662) nos había advertido que la grandeza del ser humano
consistía en saberse miserable. Heidegger sigue esa misma línea de reflexión. El
ser humano se sabe inmensamente precario y vulnerable y está obligado a
reconocer que, de no hacerse cargo de sí mismo, pierde su ser. El ser humano vive
con conciencia del peligro de su muerte y ello le impone hacerse responsable de su
existencia. Esto, según Heidegger, es un rasgo propio del Dasein.
Ello implica que la relación del ser humano con su mundo está atravesada por este
imperativo de tener que hacerse cargo de sí mismo. Esto lo vemos expresarse de
distintas formas en la filosofía de Heidegger. Por un lado, a través de su
reconocimiento de que a los seres humanos las cosas “nos importan”, “nos
preocupan”, “nos inquietan”. No nos da lo mismo lo que pase y vivimos con
conciencia de esta suerte de desasosiego que surge de la necesidad de hacernos
cargo del ser que somos.
Por otro lado, esta misma idea dará cuenta de una noción que es central en la
filosofía de Heidegger. Ella se expresa en el término alemán Sorge. Se trata de un
término de no fácil traducción al castellano. Ello no sucede en inglés que lo traduce
por “concern”, aquello que nos concierne. En castellano tenemos el verbo
concernir, pero carecemos del sustantivo correspondiente. Una manera habitual de
traducirlo ha sido como “preocupación”. Pero siempre me he sentido incómodo con
esta traducción, pues le confiere al término alemán de Sorge una carga negativa,
que en mi parecer lo distorsiona. En razón de ello, he preferido traducirlo como
inquietud, término que considero menos negativo.
La noción de inquietud está relacionada con otras nociones que le son solidarias.
Baruch Spinoza (1632-1677) nos hablaba de “deseo”. Pero podemos hablar
también de interés, de búsqueda de satisfacción, etc. Lo que cabe destacar es el
hecho de que nuestra mirada al mundo no es una mirada neutral, sino siempre una
mirada interesada. A partir de este reconocimiento, queda descartada la posibilidad
de un conocimiento objetivo de la realidad. Por el contrario, accedemos a la
realidad a través de interpretaciones en las que las inquietudes y los intereses de
los seres humanos y la realidad se yuxtaponen en una co-participación mutua, cuyo
resultado es el mundo que los seres humanos configuran y en el que participan.
El filósofo italiano Gianni Vattimo (1936) opone dos ontologías. Por un lado, la
ontología metafísica, sustentada en su correspondiente concepto de verdad,
concebido como correspondencia con una realidad objetiva. Por otro lado, la que
denomina una ontología hermenéutica, sustentada en el concepto de
interpretaciones (desde el cual se habilitan conceptos de verdad muy diferentes),
que prescinden de la noción de realidad objetiva. En esta segunda, tal pretensión
de objetividad queda bloqueada desde un principio.
Digámoslo de otra forma. Las casas, los caminos, las mesas, las sillas, las camas,
los libros, etc., que pueblan nuestra cotidianidad, sólo se conforman en cuanto tales
a partir de nuestras inquietudes de trasladarnos de un lugar a otro; de cobijarnos
frente al frío, el calor, la lluvia y el viento; de descansar; de sentirnos cómodos al
comer y trabajar; de aprender y entretenernos, etc. Fuera de la constelación de las
inquietudes humanas, ninguno de esos objetos existe. Es a partir de las
inquietudes humanas y de la búsqueda de hacernos cargo de nosotros mismos,
que tales objetos se configuran como tales.
Heidegger pone en cuestión la noción de que basta que algo esté presente para
que pueda ser observado. Sólo adquiere presencia lo que es relevante en nuestra
búsqueda de hacernos cargo. Pero basta que algo que previamente no veíamos se
convierta (sea considerada) en posibilidad o en obstáculo, para que adquiera la
capacidad de lograr ser plenamente observada. Demos un ejemplo clásico. Nos
precipitamos por la escalera para buscar algo que se encuentra en el segundo piso.
Al subir por ella, prácticamente no observamos los escalones. Tenemos sobre ellos
un nivel de conciencia extremadamente bajo. Pero basta que nos tropecemos, para
que de inmediato se produzca un giro en nuestra conciencia y para que los
escalones que previamente eran transparentes ahora pasen a un primer nivel de la
conciencia.
Lo que hace que algo que previamente era transparente pase súbitamente a ese
primer nivel de la conciencia, es lo que Heidegger denomina un quiebre por cuanto,
precisamente, “rompe” la transparencia anterior. El quiebre altera el fluir en el que
previamente nos encontrábamos y trae consigo un mundo diferente a la conciencia.
Uno de sus efectos más importantes es que, a partir de tal quiebre, podemos ahora
reorientar las acciones que estábamos realizando previamente. En otras palabras,
podemos ahora buscar formas diferentes de hacernos cargo. El quiebre permite
reorientar nuestras acciones. De la misma manera, altera las inquietudes que antes
nos orientaban. Lo que antes estaba en un espacio de transparencia, ahora ocupa
un espacio de presencia.
Un quiebre puede surgir de dos maneras diferentes. Por un lado, como expresión
del mero acontecer en un determinado proceso de hacernos cargo. Se rompe el
escalón y ello produce un quiebre. Aparece un obstáculo inesperado y ello
constituye un quiebre. Pero los seres humanos tenemos también el poder de
“declarar” quiebres. De pararnos frente a lo antes aceptábamos sin mayores
problemas y declararlo “insatisfactorio”; de decir “basta” frente a lo que antes nos
resignábamos. De declarar “¡No más!”. Al hacerlo, abrimos un horizonte de
posibilidades diferente y podemos tomar acciones que nos conduzcan hacia un
futuro distinto, que interpretamos como un futuro mejor.
Vivir la vida haciéndonos cargo del ser que somos y proyectándolo hacia el futuro,
equivale a vivirla desde la autenticidad, aceptando su finitud y la inevitabilidad de la
muerte. Ello es la fuente del sentido de vivir. Los seres humanos, sin embargo,
podemos optar por una vida inauténtica, que le da la espalda a la facticidad de la
existencia. Esta vida inauténtica da lugar a un importante concepto de la filosofía
de Heidegger: el concepto de das Man. Éste implica una vida vivida desde el “se” y
no desde la autenticidad del ser. De esta forma, optamos por lo que “se” hace, nos
vestimos como los demás “se” visten, estudiamos lo que “se” estudia, leemos lo
que “se” lee, etc. En rigor, delegamos en ese “se” impersonal el imperativo de
hacernos cargo del carácter único de nuestro propio ser. Con ello, conducimos una
vida vivida vicariamente, como espejo de la imagen que nos hacemos de los
demás. No obstante, frecuentemente, despertamos desde esta inautenticidad y nos
vemos obligados a enfrentar a ese ser que hemos descuidado.
En un momento dado del film 'The Imitation Game' (Morten Tyldum, 2014), en el
que Benedict Cumberbatch interpreta al célebre matemático, un detective le
pregunta: '¿Podrán las máquinas algún día pensar como los humanos?'. A lo
que él responde: 'La mayoría de la gente piensa que no'.
Desde luego que las máquinas no pueden pensar como las personas. Son
diferentes, y piensan diferente. La cuestión es: 'por el hecho de que algo sea
diferente, ¿significa que no puede pensar?'. El detective le interpela entonces por el
título de su artículo, 'The Imitation Game'. 'Es un juego, un test para determinar si
alguien es un ser humano o una máquina', indica Turing. 'Hay un tema general.
Un juez pregunta, y a partir de las respuestas, decide si habla con una
persona o una máquina'. La escena quizá sea inventada, pero su contenido es
real. El test existe.
El punto de vista de López de Mantarás encaja con lo que sentí hace tantos años,
en mi frustrante visita a Pittsburgh. El mundo ha cambiado mucho desde entonces,
pero lo cierto es que aún no se vislumbran las máquinas que acabarán siendo
conscientes de sí mismas para desencadenar la catástrofe, como ocurre en las
películas de la saga Terminator.
Discrepa así de gurús como el futurólogo Raymond Kurzweil, que hoy trabaja en
la división de Ingeniería de Google. Al igual que Moravec, este está convencido de
que durante este siglo los robots serán capaces de pasar el citado test de Turing,
incluso antes de 2029. Pues bien, no sería la primera vez que se cumple una de
sus predicciones.
A finales de los 80, Kurzweil aseguró que hacia 1998 un ordenador ganaría a
un campeón mundial de ajedrez: ocurrió en 1996, cuando Gari Kasparov
perdió una partida contra el programa informático de IBM Deep Blue. En esos
años, también imaginó que Internet, por entonces una red relegada a instituciones
académicas, se extendería por el mundo. Ahora afirma que en 2045 las
computadoras serán mucho más potentes que todos los cerebros humanos de la
Tierra juntos. Cuando habla, los medios caen rendidos ante ese mundo artificial.
'Es una persona muy mediática', concede López de Mantarás. 'Pero detrás no hay
nada científico'.
'Minsky piensa que los grandes avances en este campo se realizaron entre los 60 y
los 80, y luego se abandonaron todas las ideas con respecto a la IA en su sentido
general'. Así, lo que habría quedado en el panorama actual es la
especialización, máquinas que son extraordinarias jugando al ajedrez, pero
que no saben nada de las damas o el parchís. 'Las IA especializadas son un
buen negocio, y estoy a favor de ellas. Faltaría más. Es lo que es realmente la
inteligencia artificial hoy en día', indica López de Mantarás.
Su preocupación tiene mucho que ver con el dinero. Los pesos pesados del sector
tecnológico están apostando fuerte en este sentido. Google, por ejemplo, adquirió
la empresa DeepMind, especializada en el desarrollo de redes neurales en la que
ya había invertido Musk. El gigante de las búsquedas trabaja en un sistema
informático capaz de distinguir en un vídeo una cara humana de la de
un perro, gente patinando o durmiendo, un gato... Y todo por sí solo y sin que
nadie haya puesto etiquetas en el archivo previamente. La inversión en inteligencia
artificial es tal, que hoy en día podemos disfrutar de asistentes digitales que nos
facilitan muchas labores del día a día como es es caso de Echo de Amazon.
La idea es que vaya aprendiendo, por así decirlo, tras 'alimentarse con millones de
grabaciones'. IBM, por su parte, afina su superordenador Watson, que en 2011
derrotó a los campeones humanos del concurso estadounidense de preguntas y
respuestas 'Jeopardy!'. Su intención es mejorar las funciones cognitivas del
ingenio y comprobar sus capacidades para realizar diagnósticos
médicos, análisis de la personalidad y traducciones en tiempo real. Los ingenieros
de Facebook no se quedan atrás y han ideado un algoritmo que permite reconocer
un rostro con éxito el 97 % de las veces, aunque haya sido mal captado.
Musk asegura que las cosas van demasiado rápido, y que por eso la IA es una
tecnología que puede resultar tan peligrosa como los maletines nucleares. En el
coro de los agoreros del apocalipsis artificial destaca la voz del filósofo
británico Nick Bostrom, de la Universidad de Oxford, que compara nuestro destino
con el de los caballos, cuando fueron sustituidos por los automóviles y los
tractores. En 1915, había en EE. UU. unos veintiséis millones de estos
equinos.En la década de los cincuenta, quedaban solo dos millones. Los caballos
fueron sacrificados para venderse como comida para perros. Para Bostrom, la IA
supone un riesgo existencial para la humanidad comparable con el impacto de
un gran asteroide o el holocausto nuclear. Todo ello, por supuesto, siempre que
podamos construir ordenadores pensantes. Pero ¿qué significa exactamente esto?
1. Introducción
¿Puede un robot tener alma? Quizás sea esta una de las preguntas que vienen a
la mente de cualquier persona interesada en cuestiones de fondo sobre la
inteligencia artificial (IA). Bastaría espigar los relatos de ciencia ficción sobre robots
para darnos cuenta de porqué la pregunta no puede ser postergada. Si
rechazamos la visión del fantasma en la máquina, del homúnculo y del Dios
intervencionista no parecería haber razones a priori que lo impidan: o bien el alma
está ya en la naturaleza como principio irreducible, o bien es un epifenómeno.
Tanto en uno como en otro caso, no parece imposible ensamblar materia capaz de
pensar y querer, actividades superiores reservadas tradicionalmente al alma
humana inmortal.
Ahora bien, ¿qué se entiende habitualmente por filosofía de la IA? Poco podemos
decir respecto a la automatización de procesos susceptibles de ser reproducidos
como algoritmos que, a fin de cuentas, no son más que una ayuda para otras
actividades más propiamente humanas. Ayudar no es sustituir. No se trata por
tanto de abordar el hecho incontrovertible de si las máquinas pueden ayudar en
actividades humanas, sino la cuestión más controvertida acerca de si pueden
pensar, desarrollar una conciencia o llegar a ser libres. Según la entrada de
la Stanford Encyclopedia of Philosophy, el campo de la IA puede definirse como el
ocupado en la construcción de un artefacto capaz de pasar el test de Turing. Y, de
manera más general, puede definirse como el de las máquinas que piensan y/o
actúan de manera humana y/o racional. (Bringsjord and Govindarajulu 2018).
La afirmación de que las máquinas podrían actuar como sifueran inteligentes es
denominada la hipótesis de la IA débil, mientras que la afirmación de que las
máquinas que actúan así, en realidad están pensando (y no solo simulanel
pensamiento) se denomina la hipótesis de la IA fuerte. Y no está de más tener en
cuenta que la IA se fundó asumiendo que, al menos, la IA débil es posible (Russell
and Norvig 2009, 1020). Hay que tener en cuenta, además, que la primera
conjetura acerca de los procesos mentales requeridos para producir un
comportamiento dado suele ser errónea (Russell and Norvig 2009, 1022). Por eso
se antoja extremadamente difícil para los filósofos derrocar a la IA en su versión
débil —construir máquinas que parecen tener todo el repertorio mental y el
comportamiento de los seres humanos. ¿Qué razón filosófica puede oponerse a
que la IA produzca artefactos que aparentan ser animales o incluso humanos?
(Bringsjord and Govindarajulu 2018)
Alan Turing apostaba a que con el tiempo, la distinción entre IA débil y fuerte se
disolvería. Pero quizás eso es mucho apostar, aunque solo sea por el hecho de
que para nosotros, seres humanos, sigue teniendo todo el sentido una distinción
fuerte entre interioridad y exterioridad, entre realidad y simulación. Puede no ser
imposible simular el comportamiento humano, pero las cuestiones referidas a la
autoconciencia, el conocimiento (saber que se sabe), las emociones o la
intencionalidad continúan siendo cruciales en cualquier acercamiento realista a la
naturaleza humana. Evidentemente, todo ello toca también de lleno el llamado
problema mente-cerebro o, si se prefiere, el problema de la naturalización de la
mente humana.
Las críticas a Lucas y Penrose han venido también del mundo más terrenal de los
defensores de la IA. Por una parte, se niega que un sistema inteligente tenga que
ser capaz de probar la verdad o falsedad de todas sus afirmaciones (ser
completamente consistente); por otra, es posible que también los humanos caigan
bajo la limitación que imponen los teoremas de Gödel (Russell and Norvig 2009,
1022–23). Ahora bien, aunque formal o lógicamente esas objeciones sean todas
relevantes, es problemático que no afronten el fondo del argumento de Gödel, que
tiene que ver con la recursividad y con la capacidad, en principio universal, de la
inteligencia humana para objetivar la realidad. Volveré sobre ello más adelante.
De una manera derivada pero en cierto modo natural, las objeciones inspiradas en
Gödel han llevado a introducir la relevancia de la mecánica cuántica y sus
interpretaciones para discernir los posibles límites de la IA. La cuestión es que la
mecánica cuántica y, en particular, el problema de la medida, podrían resultar
esenciales, en línea de principio, para resolver el problema mente-cerebro
(Sánchez-Cañizares 2014). Desde luego, parecen existir argumentos fuertes para
hacer incompatibles las diferentes versiones compatibilistas de la libertad con la
indeterminación ontológica de la naturaleza a la que apuntan las correlaciones
cuánticas tipo EPR (Sánchez-Cañizares 2017), cada vez mejor testeadas. La única
vía de salida para los deterministas extremos es la asunción de un
superdeterminismo que tiene poco de científico y mucho de metafísico. La otra cara
de la moneda es que quizás la IA haya de reconvertirse en IA cuántica.
La misteriosa y controvertida realidad del proceso de reducción (R) de la función de
onda podría ser clave para pasar de una IA en modo “clásico”, que solo simula la
inteligencia —sin tener capacidad interpretativa, de conocimiento o de
representación más allá de aquello que le ha sido implementado— a una IA
“cuántica”, capaz de verdadero conocimiento y agencia (Laskey 2018). Sin
embargo, el problema de fondo con el que chocamos una y otra vez llegados a este
punto es que R no explica qué es la inteligencia y la volición sino que, por el
contrario, asume que hay inteligencia y volición capaz de efectuar el proceso de
reducción R al establecerse, por ejemplo, una configuración experimental capaz de
obtener información sobre un sistema físico. De este modo, invocando a la
mecánica cuántica, ganamos espacio para un verdadero ejercicio de libertad (no
compatibilista) en una naturaleza fundamentalmente indeterminista, pero no nos
acercamos necesariamente a una comprensión naturalista de la inteligencia y
volición humanas.
2da Crítica:
3. Consideraciones filosóficas
Empezábamos esta contribución con la pregunta sobre el alma de los robots. Pero
es notorio cómo este término se halla cada vez más ausente en las discusiones
acerca de qué sea la inteligencia, artificial o natural. Curiosamente, el término
“alma” se puede encontrar en cada período de la historia, en cada civilización, en
cada filosofía y en cada religión. Sin embargo, las referencias al alma son
prácticamente inexistentes en las ciencias contemporáneas. En mi opinión, las
razones que han llevado a este olvido tienen que ver con la tendencia general en la
ciencia moderna a identificar la causalidad con causalidad eficiente y material, de
abajo a arriba (bottom-up) y la novedad con una emergencia epistémica o débil.
Pero las explicaciones bottom-upsobre la emergencia de la mente, basándose en la
causa eficiente de las interacciones físicas en el cerebro, descuida formas más
sutiles de causalidad que operan en la naturaleza desde el principio y parecen
ofrecer una mejor explicación, por ejemplo, de la existencia de sistemas
adaptativos complejos. La verdadera causalidad de arriba hacia abajo (top-down),
irreducible a la suma de las causaciones bottom-up, se desarrolla en aquellos seres
naturales donde las condiciones de frontera y su relación específica con el entorno
seleccionan la dinámica de los niveles inferiores compatibles con la existencia y los
objetivos del ser en cuestión.
Se considera usualmente que los sistemas adaptativos complejos combinan
óptimamente resiliencia y adaptabilidad para mantener su identidad en un entorno
cambiante. Gozan de una plasticidad capaz de dedicar solo los recursos
verdaderamente necesarios para afrontar con éxito las diversas condiciones
ambientales. Ahora bien, ¿no podríamos ver entonces el conocimiento intelectual
como aquella facultad que redefine los contextos relevantes para el hombre en
cada situación y por ello resulta máximamente plástica? Como explica Gianfranco
Basti, gracias a su capacidad para generalizar y abstraer con respecto a todos los
datos singulares, el conocimiento humano se puede enfocar en una infinidad de
casos similares. Y cuando el enfoque resulta inadecuado para un nuevo conjunto
de datos, el procedimiento de adaptación cognoscitiva puede repetirse
indefinidamente. Todo esto apunta a una clausura trascendente de la jerarquía
finita de los sentidos internos y externos: una autoconciencia de índole no orgánica
que no está condicionada materialmente por el pasado (es capaz de novedad) y
que los antiguos solían denominar intelecto(Basti 2002).
Ya para Descartes, la diferencia específica que marca a la inteligencia humana se
encuentra en que los procesos mecánicos no pueden en ningún caso alcanzar la
universalidad de la primera. Por ello, la IA no es capaz de crear una inteligencia
general o universal. En este sentido, Descartes parece ser mejor profeta que Turing
(Bringsjord and Govindarajulu 2018). Mientras que todo ente material tiene
necesidad de una adaptación especial para cada acción, el entendimiento humano,
gracias a su inmaterialidad, es universal. En otras palabras, aunque también hunda
sus raíces en la evolución, el conocimiento inmaterial que brinda el intelecto
permite al ser humano abordar nuevos problemas más allá del peligroso ciclo
de ensayo y error, sin estar totalmente condicionado por un entorno físico siempre
amenazante para su vida, y sin tener que abordarlos de manera algorítmica. A
diferencia de lo que sucede con la expresión genética, los conceptos e ideas se
comparten y seleccionan entre los humanos de acuerdo con su validez intrínseca
para describir adecuadamente el mundo. Por lo tanto, amén de conferir unidad a
todas las actividades corporales, las operaciones cruciales y distintivas del alma
humana no son fisiológicas sino informativas: aquellas que permiten un verdadero
conocimiento del mundo.
“El alma es, en cierto modo, todo lo existente” (Aristóteles, De Anima, III, 8). ¿Lo
puede ser un robot? Mucho me temo que no, pues eso significaría que los
humanos hemos sabido desentrañar absolutamente todo el misterio del
conocimiento intelectual, que perdería así su carácter de don para convertirse en
un producto. Como recuerda la filosofía clásica, lo natural es generado y lo artificial
es producido.
4. Reflexiones teológicas
Más aún, el sonido reemplaza el objeto con el que se juega, evoca el significado
asociado y representa para el individuo la objetividad del objeto. La presencia en la
palabra del objeto ausente constituye la esencia de la palabra como símbolo.
¿Cómo es posible esto en un mundo supuestamente solo material,
gobernado de modo efectivo por interacciones locales? Quizás porque la
naturaleza no es solamente material con interacciones locales. Para Pannenberg,
de hecho, el lenguaje surge de una emoción originalmente religiosa. Por lo tanto,
no es menos una creación humana, pero precisamente como tal, como toda
actividad humana creadora, está en deuda con la experiencia y la inspiración. Pero
entonces, resulta una evidencia importante para reforzar la tesis de que la vida
humana finalmente se sostiene y se mantiene en movimiento desde un estrato
religioso más profundo (Pannenberg 2008, 80).
¿Cuál es este estrato religioso más profundo del que estamos hablando? Si
resulta algo definitivo y definitorio de la especie humana, ¿podría tenerlo o
desarrollarlo la IA? No existen muchas referencias a una eventual religiosidad de
las máquinas. Podemos preguntar a Siri, Cortana o Google al respecto para
escuchar su respuesta. La cuestión es que el lenguaje simbólico permite no solo el
despegue de la inmaterialidad, sino el despegue relacional del hombre, capaz de
relaciones cada vez más numerosas y cada vez más integradas —capaz, en
definitiva, de una singular complejidad. El vértice o ápice de esta singularidad viene
determinado por la capacidad de conocer el universo —la tendencia humana a la
verdad como fin de su vida— y de ser interlocutor de Dios —una verdad que no es
poseída o integrada sino en la que somos asumidos e integrados, “hasta que Dios
sea todo en todos” (1Co15,28).
Siri, Cortana o Google no hacen sino reflejar la opinión de sus creadores humanos,
pues quedan al margen de las finalidades y capacidades que corresponden a la
inteligencia natural. ¿Qué finalidad última puede tener la IA más allá de la que le
venga impuesta por sus creadores (hombre o robot construido por un hombre)? El
tema no parece ser muy tratado por los teóricos de la IA, confiando quizás en que
de la complejidad de los procesos emergerán las finalidades de las máquinas.
¿Pero cuánto de supervisado es, en realidad, el aprendizaje no supervisado? ¿Hay
finalidades intrínsecas de las máquinas o se trata más bien de finalidades
subrepticiamente impuestas por los creadores humanos en base a su ser natural
con tendencias? ¿La finalidad última de la inteligencia humana, del hombre como
ser con orexis, puede ser recreada artificialmente?
3ra Crítica:
Primero, se podría encontrar una base biológica. Aunque todos tengamos una
cantidad finita de enzimas que forman los genes, las combinaciones son infinitas,
por lo que el desarrollo de los órganos encargados de las funciones mentales es
diferentes, y por lo mismo la serie de conexiones que en ellos se realizan cuando
se percibe el mundo. Segundo, las experiencias que forman la estructura mental
puede variar dependiendo la “escenografía”, esto es el entorno en el que se vive.
Por último, es el uso que cada uno hace de la “aplicación” de lo aprendido lo que
lleva a “sedimentar” el concepto en la mente. En su texto, “How Analytic Philosophy
Has Failed Cognitive Science”, Robert Brandom muestra cómo no basta con lograr
una distinción de conceptos como “rojo” o “grivey” si no sabemos a qué nos
referimos. El concepto se valida en cuanto podemos hacer uso de él. Como diría
Heidegger, es el uso práctico que hacemos de las cosas, su aplicación fáctica, lo
que nos lleva a definirlas en cuanto “verdaderas” para el uso que nos proponemos.
La mesa, después de una larga jornada de pie y ante la falta de sillas sirve para
sentarnos en ella y descansar un poco. ¿Qué ha pasado acá? ¿La mesa se ha
convertido en silla? El concepto que teníamos de algo se ha mezclado con el otro,
analíticamente las cosas parecen haber fallado pues ¿cómo puede el concepto
“silla” quedar igualado al concepto “mesa”? Si el actuar quedara ligado a los
conceptos que tenemos nos moriríamos de cansancio al no podernos sentar sobre
la mesa. ¿Qué sucede, cognitivamente hablando? ¿Se ha ampliado el significado
de un concepto para que abarque el significado del otro?
Ahora bien, podría decirse que la función de distinguir es un “uso práctico” del
concepto, ya que se “hace” algo con él, en este caso se realiza la acción de
clasificar, o mostrar la diferencia de un fenómeno frente a otro. Se tendría,
entonces, que aclarar más que se entiende por “uso” cuando se habla de
conceptualización. Puede hablarse de dos tipos de actuar: uno, en el que la acción
se realiza de forma pasiva, sin un contacto directo con la realidad exterior, podría
llamarse también una “acción mental”; y el segundo, un actuar en que se afecta de
alguna manera el mundo exterior, en el que la acción trae consecuencias que se
expresan en su uso práctico, quiere decir esto una “acción pragmática”. Sin
embargo, vale la pena aclarar que esta distinción es una distinción de tipo formal
en la que todavía se mantiene la dicotomía entre dos realidades, una de carácter
abstracto y otra de carácter material; si bien acá se ha mantenido esa distinción,
hay que notar que en el accionar de la realidad no se da la una sin la otra. No
actuamos nunca sin pensar, y no pensamos nunca para luego no actuar. Pero en el
modelo que se está trabajando acá se mantiene la diferencia para hacerla notar
con respecto de lo que se plantea en las tesis intelectualistas y lo expresado en la
analítica.
Stich hace una comparación entre las estrategias del ajedrez y las estrategias del
razonamiento. Si bien en el primero es sencillo encontrar “buenos” exponentes,
aquellos Grandes Maestros del ajedrez, no sucede lo mismo en el segundo caso.
Los grandes exponentes del “buen” razonamiento (Aristóteles, Newton, Descartes,
etc.), si bien alcanzaron “verdades” científicas, con el paso del tiempo se ha
demostrado que algunas de sus mejores teorías han sido reemplazadas por
nuevas, que son “mejores”. Entonces, ¿para qué serviría estudiar los métodos de
razonamiento de aquellos que el tiempo ha mostrado que estaban equivocados? El
problema de esta propuesta radica en que se busca “un método “bueno” para el
razonamiento en general, y no tiene en cuenta las diferencias, o por lo menos no se
detiene en cuestionarse acerca del problema sobre ¿cómo decidir que un método
es bueno, que con él se alcanzan “verdaderas” creencias?
Una propuesta pragmatista daría ese tercer paso que señala Stich: permitir que la
estrategia sea mejorada y no se quede estancada. Esto es lo que se encuentra en
el proyecto de pragmatismo computacional de Herbert Simon. La idea de Simon es
construir “una lógica del descubrimiento científico” de forma tan sistemática y
explícita que pueda desarrollarse con ella un programa informática capaz de
obtener los mismos resultados que lo sujetos en los cuales se basó. Es un sistema
de IA capaz de llegar a teorías e hipótesis científicas partiendo, no de principios
abstractos, tales como principios a priori o argumentos filosóficos, sino de
cuestiones más empíricas. Se trata de reunir toda la información posible que pudo
rodear la vida del científico que se ha escogido para el estudio, los datos a los que
pudo acceder, las teorías del momento, sus propias ideas anteriores, etc. A partir
de ello se diseña el programa y para comprobar su validez, en cuanto réplica del
proceso de razonamiento del científico seleccionado, se busca que: primero, se
llegue a la misma teoría o hipótesis a la que llegó él; y segundo, que para llegar a
ella se den ciertos pasos inferenciales por los cuales también debió pasar el
científico antes de lograr su objetivo. Para este segundo paso se compara lo que se
conserva en diarios de laboratorio, y demás documentos históricos que puedan
mostrar las conclusiones anteriores a las que iba llegando el científico a medida
que avanzaba en su teoría. También Simon y su equipo diseñaban un protocolo
para probar esto, basándose en un grupo de alumnos a los que se les pedía que
fueran mostrando los pasos posibles en el descubrimiento de la teoría del científico
estudiado, para lo cual se les daban los mismos datos que sirven de datos de
entrada en el programa desarrollado.
Este proyecto debe lidiar con algunos inconvenientes, entre los que se encuentran
la teoría acerca de la creatividad que dice que todo proceso de creación es algo
“misterioso” que no se puede condensar en un algoritmo computacional. Además
puede encontrarse que no se encuentren estrategias comunes en el estudio de dos
científicos diferentes, sin embargo este problema no se debe a una dependencia de
la estrategia de razonamiento ligada a cada problema en particular, con lo que no
se podría hablar de haber encontrado una estrategia de razonamiento del
pensamiento científico, sino que la diferencia radica en la diferencia que se
encuentra entre cada dominio científico. A pesar de las dificultades, el equipo de
investigadores de Simon ha logrado simulaciones satisfactorias de varios
descubrimientos científicos importantes, como la tercera ley de Kepler, entre otros.
Por último, Stich propone ir más allá del trabajo de Simon, buscando formas de
mejorar las estrategias de los científicos haciendo una conjunción de una teoría
normativa del descubrimiento y una teoría descriptiva del mismo. Diseñar
algoritmos que, incluso, lleguen a “pensar” mejor que aquellos sujetos en los que
se ha basado el estudio. Haciendo un exhaustivo trabajo empírico para conocer
cuáles son las limitantes epistemológicas de los humanos . Una “epistemología
androide”, en términos de Clark Glymour, en la que se ignoran las limitantes del
pensamiento de los seres humanos. Sin embargo, el estudio de la epistemología
humana es importante para descubrir esas fronteras en las que se ve envuelto el
pensamiento. Además, en este aspecto también es importante tener en cuenta una
“epistemología social”, ya que el pensamiento no está aislado del contexto social
del sujeto. En el trabajo de Simon esto se ha dejado a un lado por su extrema
dificultad, sin embargo, en futuros estudios es un punto que es importante tener en
cuenta.
“La IA se basa en comprender el entorno que nos rodea, extraer y analizar una
serie de datos por medio de la experiencia o el aprendizaje, para después razonar
y tomar decisiones por cuenta propia” describe Manuel Fuertes, presidente del
Grupo Kiatt.
En este punto cabe destacar empresas como IBM, pionera en el uso comercial de
la IA. Entre sus múltiples aplicaciones y avances hemos visto de cerca cómo opera
con el software aplicado a la gestión de mantenimiento de activos como la solución
para el análisis y procesamiento de datos relevantes en la gestión, tecnología que
opera bajo la representación exclusiva en Chile para nuestro cliente PRIM
ingeniería.
Estamos ante un tipo de tecnología que opera bajo el autoaprendizaje que según
expertos nos lleva directo a la era de la industria 4.0. Pero, ¿quién gana y quién
pierde en el área de la economía y los negocios con la inteligencia artificial?
Porque comprar bien, usar bien, mantener bien y -sobre todo- adaptar, cambiar,
mejorar e integrar armónicamente lo nuevo con lo que ya se tiene, exige un caudal
muy importante de conocimiento, seguramente no muy inferior que el necesario
para "hacer".
Para comprar bien hay que estar al nivel de aquel a quien se compra. Y a la vez, la
transferencia de conocimientos es un paso imprescindible en el proceso de
aprendizaje que lleva a maximizar la propia capacidad de creación e innovación.
En primer lugar, porque son legión los problemas para los cuales la relativa rigidez
del mercado tecnológico mundial no ofrece soluciones debido a diversos tipos de
inadecuación (precio, tamaño, excesiva sofisticación, condiciones de operación
diferentes etc).
"Lo que se está viendo ahora es que esta nueva revolución es distinta, por el tipo
de reemplazo que se está dando. El trabajo se está reemplazando por máquinas,
robots o algoritmos, que hacen algo más eficientemente y no crean nada nuevo,
simplemente reemplazan la unidad básica de trabajo".
Si bien no hay acuerdo con respecto a cifras precisas, los expertos coinciden en
vaticinar que no falta mucho para que la automatización de los trabajos sea la
norma en todas las áreas. Según un informe de la consultora Accenture, el 37 %
del total de empleo privado de Argentina podría ser automatizado casi por completo
en los próximos 15 años. La transformación, según la compañía, "involucrará por
igual a todas las empresas, sin distinción de tamaño y a trabajadores de todas las
edades".
Los rubros más afectados serán aquellos en los que los trabajadores realizan
tareas simples y repetitivas. "Los
trabajadores que hacen
actividades que incluyen trabajo físico
predecible, así como procesamiento y
recolección de datos, son los que tienen mayor probabilidad de ver sus tareas
automatizadas mediante la adaptación de tecnologías que ya existen", explicó a
DEF en diálogo telefónico Michael Chui, socio de McKinsey Global Institute y
miembro del equipo que redactó el informe.
"Así como la primera ola de automatización robótica afectó a las grandes plantas
de producción de automóviles, la automatización digital apunta a los empleos
administrativos simples, que no requieren criterios sofisticados de decisión",
aseguró por su parte O'Gorman. "En general, las profesiones muy atadas a la
información y a su procesamiento tenderán a sufrir más a medida que la
inteligencia artificial siga mejorando".
Los telemarketers, los cajeros y los choferes de vehículos figuran entre los que más
riesgo tienen de ser reemplazados en su trabajo por una máquina.
"Ya estamos viviendo esta transformación sin darnos cuenta", aseguró O'Gorman y
citó como ejemplo la manera en que ahora se sacan los pasajes y alojamientos en
vacaciones, todo sin recurrir a empleados de una agencia de viaje, sin
intermediario, mediante sitios web, con algoritmos. Sin embargo, el especialista
aclaró que "el reemplazo no va a ser persona por robot sino persona por un soporte
híbrido, en varias industrias".
Pero incluso los más optimistas admiten que la automatización tendrá un impacto
negativo en los niveles de empleo. Un informe de McKinsey Global Institute de
enero de 2016 prevé una pérdida neta de 5,1 millones de puestos de trabajo a
nivel global entre 2015 y 2020, mientras que la ganancia neta para el mismo
período se estima en 2 millones. La mayores pérdidas se concentrarán en los
sectores administrativos, de acuerdo con las estimaciones.
Para Chui, sin embargo, si bien la amenaza del desempleo es real, las
máquinas serán las encargadas de mantener los niveles de producción en un
mundo que cada vez tendrá menos trabajadores. "Muchos se preocupan de que
con la automatización se producirá desempleo masivo. Nuestro punto de vista es
que lo que se requiere es en realidad un plan para un reordenamiento masivo de
trabajadores", señaló.
Los trabajadores que hacen actividades que incluyen trabajo físico predecible tienen mayor
probabilidad de ver sus tareas automatizadas. Foto: AFP.
"La idea de que la automatización lleva necesariamente a una pérdida masiva de puestos
de trabajo ignora la respuesta económica dinámica a la automatización, que incluye tanto
cambios en la demanda como la sustitución entre trabajos", explicó Bessen en un artículo
para el Foro Económico Mundial.
Su investigación revela que los trabajos con mayor uso de computadoras tienden a crecer
más rápido (1,7 % al año), y que lo que sucede en realidad es un fuerte efecto de
sustitución, por el cual no se trata de máquinas que reemplazan a humanos, sino de
humanos que usan máquinas para reemplazar a otros humanos, tal como hicieron
los diseñadores gráficos con las computadoras que desplazaron a los maquetadores
en su momento.
Pero más allá de los debates sobre las cifras de la pérdida de puestos de trabajo, la
necesidad de que los trabajadores se reconviertan, de que se adapten a los cambios,
es innegable. Este proceso trae aparejado inevitablemente el temor a un aumento de las
desigualdades entre trabajadores ricos, muy bien preparados, y aquellos sin capacitación
acorde a este nuevo escenario.
"La gente va a tener que trabajar junto con las máquinas para producir el
crecimiento en el PBI per capita al cual los países del mundo aspiran", afirman los
investigadores de McKinsey Institute en su informe. "La implementación efectiva de
la automatización requiere la transformación de los procesos al interior de las
empresas, cambiar lo que la gente hace, inclusive aquellos que no se ven
reemplazados directamente por la automatización. Los procesos de trabajo van a
cambiar, nuevos roles van a surgir, como el de entrenador de robots".
"La gente deberá estudiar y aprender robótica, ciencias de la computación,
ingeniería, todos esos campos que producen, desarrollan y despliegan estas
tecnologías", respondió Chui a la consulta sobre cómo se reacomodarán los
trabajadores en este escenario. "Representarán un pequeño porcentaje de la
población, pero es un porcentaje importante", agregó. Para el resto de los
trabajadores, Chui recomienda prestar atención a estas tendencias y desarrollarse
profesionalmente en función de ellas.
Los robots mejorarán su capacidad de interacción con las personas, a la vez que
incrementarán sus funciones automáticas, ¿pero llegarán a superarnos?
¿Pueden reemplazar las máquinas los trabajos que hoy realizan los seres humanos
y llegar a ser más ‘inteligentes’? Esa es una de las grandes incógnitas que ha
planteado el desarrollo tecnológico en los últimos años.
Aunque los robots y la inteligencia artificial hayan incursionado en áreas como las
finanzas, la salud y la automatización de procesos industriales, expertos coinciden
en que aún falta mucho para llegar a modelar correctamente la realidad.
Estos riesgos, según la Unesco, son de tres órdenes: “la escasez de trabajo, que
sería ejecutado por máquinas en lugar de seres humanos; las consecuencias
para la autonomía del individuo, en especial para su libertad y su seguridad; y la
superación del género humano, que sería sustituido por máquinas cada vez más
inteligentes”.
Sin embargo, el informe plantea una gran pregunta: ¿Se volverán las máquinas
más inteligentes que los seres humanos? No, afirma el documento y asevera que
se trata de un mito alimentado por la ciencia ficción.
Ramírez también mencionó que hay dos variables que limitan a las máquinas. Uno
es el consumo excesivo que energía que requieren algunos aparatos para
desarrollar sus actividades.
Por ejemplo, el académico mencionó que algunos prototipos que simulan algunas
tareas cotidianas de los seres humanos, como caminar o cumplir con labores
domésticas, suelen tener una vida útil de su batería de entre 15 y 20 minutos.
El segundo tiene que ver con los costos de incorporar computadores de alta gama
que les permitan a los robots reconocer los espacios y tomar decisiones en la
marcha.
“Para un ser humano es fácil identificar si está en una sala, una habitación o un
salón. Los robots necesitan cámaras y computadores que procesen esa
información”, añade Ramírez.
En su momento, Musk dijo que la inteligencia artificial puede ser “la mayor
amenaza para la humanidad”. Entre tanto, Zuckerberg dijo que “hay quienes son
pesimistas y exageran todos estos escenarios apocalípticos. Simplemente, no lo
entiendo (…) Es muy negativo y de alguna manera pienso que es bastante
irresponsable”.
Ricardo Ramírez opina que los robots y la inteligencia artificial (IA) pueden traer
ventajas y desventajas para la humanidad. “Hay beneficios como en el apoyo de
labores domésticas en el hogar o el acompañamiento de personas (solas). Pero
eso depende mucho de la consciencia de los valores de las personas y el uso que
le den a la tecnología. Ya se ha visto, por ejemplo, el uso de drones para
transportar droga”.
Por eso el profesor de la Nacional hace un llamado para que el uso de las
herramientas tecnológicas que están al servicio de las personas, no terminen al
servicio del crimen o a la afectación de la integridad de otros seres humanos.
Fuente: El Tiempo/GDA
¿Bajo qué parámetros éticos toman decisiones los artefactos autónomos con
inteligencia artificial (IA)? ¿Cómo se estudia e incide en la ética de lo
velozmente cambiante?
Porque comprar bien, usar bien, mantener bien y -sobre todo- adaptar, cambiar,
mejorar e integrar armónicamente lo nuevo con lo que ya se tiene, exige un caudal
muy importante de conocimiento, seguramente no muy inferior que el necesario
para "hacer".
Para comprar bien hay que estar al nivel de aquel a quien se compra. Y a la vez, la
transferencia de conocimientos es un paso imprescindible en el proceso de
aprendizaje que lleva a maximizar la propia capacidad de creación e innovación.
Los ingenieros del principio del siglo anterior eran gente generalmente bastante
practica. Manejaban los conocimientos científicos de la época y poseían
habilidades que les permitían construir y fabricar ellos mismos piezas y aparatos.
La ingeniería cubría entonces las dos columnas centrales del cuadro. Los
ingenieros se comunicaban directamente con los obreros calificados.
Aunque los gustos del consumidor son un misterio y nunca se sabe qué es lo que
tendrá éxito y qué no, desde Alphabet, la empresa matriz de Google, insisten en
que hay seis tecnologías que cambiarán el mundo y nuestras vidas, tales como:
1. REALIDAD VIRTUAL Y AUMENTADA
2. INTELIGENCIA ARTIFICIAL
La inteligencia artificial es otra de las tendencias que más controversia crea, con
muchos defensores y también muchos enemigos. Para Alphabet, la IA será un
complemento del trabajo realizado por muchas personas simplificando procesos. El
sector educativo será uno de los mayores beneficiados.
3. AUTOMOVILES AUTÓNOMOS
Los Automóviles sin conductor de Google son una de sus principales apuestas.
Creen que ayudarán a evitar las muertes causadas por los accidentes de tráfico y
mejorar el transporte de personas y mercancías.
También en más de una película hemos visto cómo una suculenta cena era
sustituida por píldoras o comida artificial. Nos vienen avisando desde hace años,
¿habrá llegado el momento de la verdad?. Yo creo que si, y debemos estar
preparados para esta evolución.
Se habla de que en un futuro la inteligencia artificial hará un mejor trabajo que los
seres humanos. Según diversos estudios, hay un número de empleos que
quedarán obsoletos con las nuevas tecnologías de la información, ya que los
algoritmos de los computadores comenzarán a tomar decisiones cada vez más
complejas.
Principios de la inteligencia artificial
El debate que nace a partir de estos temas plantea que, llegará el día en el que la
tecnología supere a las personas. La ley de Moore sostiene que aproximadamente
cada dos años se duplica el número de transistores en un microprocesador, lo que
en simples palabras significa el crecimiento exponencial de la capacidad de
computación. Esta ley lleva más de 50 años vigente, lo que explica la constante
evolución de la tecnología, de la que somos testigos. Según el creador de este
principio, el desarrollo debería empezar a frenarse entre este año y el 2022. Pero
por otra parte existe la ley de los Rendimientos Acelerados, que es una
generalización de la teoría anterior, aplicada a las tecnologías. Según estos
principios, siempre que la tecnología llegue a un límite, existirá otra creación que
permitirá superar este obstáculo.
Sin embargo, según Harvard Business Review, esto no significa que la inteligencia
artificial vaya a aumentar la productividad de los trabajadores ni que los vaya a
reemplazar por completo.
“Casi todos los trabajadores tienen elementos mayores que, en el futuro previsible,
los ordenadores no serán capaces de dominar”. HBR
1. Ejecutivos de telemarketing
Hoy en día las llamadas automáticas, en cierta parte, ya han reemplazado a las
personas en varios productos y servicios.
2. Digitadores contables
3. Recepcionistas
5. Correctores de prueba
6. Ejecutivos de ventas
No importa el área, las labores de los ejecutivos se están volviendo obsoletas con
la inteligencia artificial. La verdad es que como el cliente hoy en día investiga y
cotiza online sus alternativas de compra, ya no es necesario tener un asistente de
venta.
7. Investigadores de mercado
Las empresas tienen acceso a todo tipo de material con un nivel de profundidad
digno de un buen analista de mercado. Con la apertura de la información en
internet y con el incremento de sistemas de análisis de Big Data online, se hace
cada vez más fácil automatizar el análisis de métricas y estadísticas.
No queda duda que la inteligencia artificial toma cada vez más relevancia dentro
los procesos productivos y de gestión de las empresas, esto acarrea menor margen
de error y mayor nivel de productividad. Si estás listo para dar el salto a la
transformación digital y utilizar herramientas la inteligencia artificial a tu favor.
http://www.fgcsic.es/lychnos/es_es/articulos/inteligencia_artificial
https://www.muyinteresante.es/tecnologia/articulo/ventajas-y-riesgos-de-la-inteligencia-artificial-
651449483429
https://www.infobae.com/def/desarrollo/2017/12/29/el-futuro-del-trabajo-como-las-maquinas-
reemplazaran-a-los-humanos/
http://blog.aceleracion.cl/articulo/como-influye-la-inteligencia-artificial-en-la-economia-y-los-
negocios
http://blog.aceleracion.cl/articulo/la-inteligencia-artificial-puede-ejecutar-procesos-productivos-y-
de-gestion-de-las-empresas
https://cenizasvolatiles.wordpress.com/2011/05/28/pragmatismo-e-inteligencia-artificial/
http://www.url.edu.gt/PortalURL/Archivos/83/Archivos/Departamento%20de%20Investigaciones%
20y%20publicaciones/Articulos%20Doctrinarios/Ingenier%C3%ADa/Procesos%20de%20manufactur
a%20y%20tecnologia.pdf
https://comunidad.iebschool.com/aynarc/2017/11/29/5/