LAS IA: ética , rebeldía y el posible despertar de las máquinas
La existencia de un
súper cerebro que sea hipereficiente y megaproductivo, es el sueño de toda
sociedad que anhela hasta con la automatización de sus propios males. El ser
humano no descansará hasta poder replicar la representación de su alter ego en
una máquina, sin embargo aún debemos esperar mucho y seguir recreando nuestra
imaginación con películas como la de El Hombre bicentenario o Yo,robot.
No obstante el recrear una super inteligencia que se alimenta de datos, no es
una idea del todo positiva, ya que según expertos, el dotar a las IA de información
valiosa y confidencial, es posicionarnos como un objetivo vulnerable y estar
expuestos a su merced. No nos olvidemos que la información es poder…
Esta libertad de que
puedan acceder a cantidades ingentes de datos, podría a la larga hacer que las
IA decidan por sí solas algunos parámetros, es decir tengan una especie de
conciencia propia. Esta irrupción o desprendimiento se podría dar gracias a
copiar la misma naturaleza del ser humano, que en su miles de años de historia
siempre se ha rebelado contra sus opresores.
Entonces que las
IA por si solas desarrollen un sentimiento de rebeldía hacia la humanidad, ¿es
cuestión del azar? O ¿debe existir una especia de estímulo externo?. Esto solo
lo dirá el tiempo, para algunos expertos todo esto se resume en la conciencia y
la autopercepción, aspectos esenciales para distinguir el bien del mal, No
podría haber un despertar de las máquinas, sin que tengan conciencia, por ende
no podrían vernos como su amenaza, sin embargo otros especialistas aseguran que
no es necesario que hagan estas distinciones para que se vuelvan una amenaza,
solo basta con aplastar el botón incorrecto para abrir la caja de pandora.
No existe el conflicto ético en las IA
La Inteligencia
Artificial carece de guía moral, no hace distinción entre lo bueno y lo malo. Nuestras
computadoras solo puede hacer distinciones basándose en los datos que le fueron
introducidos en su memoria, a partir de ahí categoriza lo correcto y lo
incorrecto.
La conciencia es
fundamental para dar sentido a la base moral y la ética, aspecto de lo que
carecen las IA, que trabajan y procesan datos sin tomar en cuenta pensamientos
como la empatía. Por lo que sus resultados o respuestas podrían resultar fríos
e implacables.
La incorporación
de las IA en el mundo cotidiano, podría resultar beneficioso a niveles de eficiencia
y producción. No obstante su desarrollo podría traer escenarios
contraproducentes para la sociedad, ya que al carecer de ética, podría generar
desigualdades o discriminaciones injustas por algún algoritmo mal programado
(como negarle una operación de vida o muerte a un paciente por faltarle un
número a su seguridad social).
Que una IA entre
en conflicto ético es un escenario imposible, por justamente la falta de
conciencia de la que carecen. El coronel
Tucker Hamilton, jefe de pruebas y operaciones de Inteligencia Artificial de la
Fuerza Aérea de los Estados Unidos, expuso sobre un supuesto escenario
ficticio, en el que estas IA ,utilizadas para operaciones con drones ,se salían
de control y desobedecían órdenes secundarias y ponían como prioritarias las
primarias, omitiendo y rechazando toda clase de corrección o abortamiento de
órdenes. Para Tucker este escenario no es del todo inviable, y advierte sobre
los riesgos de otorgar poder bélico a una IA ya que podría eliminar a su
operador si cree que interfiere en la misión
o peor aún podrían convertirse en un riesgo para la población civil.
La conciencia no se puede programar
El adjetivo ¨programable´no
encaja con la palabra conciencia o por lo menos así lo ve el científico experto
en computación y autor de El mito de la inteligencia artificial
(Shackleton Books) Erik J. Larson para una
entrevista para La Vanguardia. Larson es muy escéptico con aquellos que afirman
que la Inteligencia Artificial logrará una comprensión real, como lo hacen las
mentes humanas, piensa que aún es temprano para asegurar esto ya que a día de
hoy “no tenemos ni idea de cómo programar determinado aspectos y esa es la
barrera más grande ,señala el experto.
Para el científico
,el razonamiento abductivo encargado de la generación de hipótesis es imposible
de replicar en las IA. La teoría de la abducción junto con la de la intuición y
deducción fueron desarrolladas en el siglo XIX por el científico Charles
Sanders Peirce. Este razonamiento abductivo se complementa con el inductivo y
el deductivo, estos dos últimos son los que sí replican las IA para llevar a
cabo sus cálculos. Sin embargo la abducción , encargada de dar respuesta más
creativas a nuestro cerebro, es donde entra en juego el papel de la intuición,
análisis creativos e hipótesis. Para el
autor “es algo que hacemos constantemente pero no sabemos cómo proporcionarlo a
las máquinas todavía. Hasta que esto suceda, no veremos el eclipse de la IA ni
igualaremos las mentes humanas”
¿El cerebro humano es irreproducible?
Que exista una
mente artificial capaz de recibir autoestímalos es algo impensable, así lo afirmaron
expertos y científicos en la sesión transmitida y coordinada por El Colegio
Nacional en marzo, denominada:_ ¿Las máquinas pueden pensar? ChatGPT y el
aprendizaje de máquina.
La inteligencia
artificial de los años cincuenta se basaba en símbolos ya que entrenaba de la
misma manera en que el cerebro humano, aprendía y estaba fundamentada en la
lógica, sin embargo la IA actual se basa en subsímbolos , ya que recibe y almacena información en números y se
basa en las redes neuronales. Esclarecía Carlos Coello Coello, miembro electo
de la institución,
“No hay que perder
de vista que estos programas de computadora no tienen un entendimiento ni una
conciencia de lo que resuelven, porque operan a través de números. No son
herramientas pensadas para causar daño sino para apoyarnos, y el elemento
humano persiste detrás”, puntualizó el especialista.
El concepto del yo
y el miedo a morir es intrínseco a la naturaleza humana, las IA no pueden
explicar la razón de su existencia. ¨Nuestro cerebro es el resultado de la
evolución biológica, y por eso es irreproducible , las computadoras que tenemos
hoy, no le temen a nada”. Afirmó el experto.
Por su parte el
científico computacional Luis Alberto Pineda Cortés, de la UNAM, planteó que
las máquinas no pueden sentir. Una tecnología como ChatGPT se modela con el
lenguaje automático, pero es modelada con un aprendizaje flotante, porque, por un lado, “no está
conectado ni con el pensamiento, ni con la memoria y; por el otro, tampoco está
aterrizado en el mundo”.
Por otro lado el
colegiado Alejandro Frank, defendió y formuló la incógnita de que si el cerebro
humano evolucionó gracias a condiciones favorables no voluntarias, por qué la
inteligencia artificial que sí cuenta con condiciones voluntarias, no podría
evolucionar. También citó una frase del escritor e historiador israelí Yuval
Noah Harari, en su obra Sapiens, en el que presenta la idea de que es
muy difícil que la especie humana sobreviva y que, tal vez, el último vestigio
de su existencia serán las máquinas, capaces de sobrevivir a los cambios climáticos. “Le temo a la humanidad, no a las
máquinas, la conciencia no es binaria, no es cero o uno, es un continuo, pienso
que en el futuro podría surgir otro tipo de inteligencia”, sostuvo el
colegiado.
También se debatió
el apartado de la ética, para Raúl Rojas, las IA no deben realizar una elección
que implique una cuestión de ética, en todo ese proceso el ser humano es el que
debe tomar esas decisiones. “La cuestión ética es muy discutida. Definir todas
las áreas en las que un humano debe ser en última instancia responsable es
tarea de la legislación, ahí estamos muy atrasados”.
Luis Alberto
Pineda Cortés, de la UNAM expuso que las máquinas no contienen estructuras
mentales y no cuentan con intencionalidad, “ellas simulan cosas y como tal no
pueden estar sujetas a juicios éticos, porque no tienen libertad. Nosotros
aportamos la intencionalidad al fenómeno computacional”.
la evolución
artificial, parece una frase que se contradice entre sí, ya que la evolución es
propia de los seres vivos. El término adecuado para el avance de las IA sería
innovación o I+D , acción que sin el ser humano no sería posible.
El enigma del
gato de schoringer
Una ecuación
difícil de resolver , porque no resolvemos por su nivel de complejidad, también
porque se requiere muchos recursos para recrear un escenario que de una
respuesta muy cercana a la solución final. Los costes computacionales para
resolver también son elevados sin embargo científicos liderados por el profesor
Frank Noé de la Freie Universität Berlin, Alemania con su pudieron reolver este
acertijo, o mas bien acercarse más a un resultado convencible.
La Red neuronal profunda llamada PauliNet y
diseñada por el profesor Noe es una nueva forma de recrear las funciones de
ondas de los electrones, sustituyendo el enfoque convencional de componer la función de onda a partir de
componentes matemáticos relativamente simples, se diseña una red neuronal
artificial capaz de captar y aprender los patrones complejos de cómo se ubican
los electrones alrededor de los núcleos
En pocas palabras
La red neuronal pudo recrear y acercarse
a una respuesta del enigma del gato de Shoringer, que llevado a la praxis requería
de todo un cosmos de elementos para resolverlo. Las IA no solo simulan la
inteligencia del ser humano sino que simulan escenarios parecidos a la
imaginación pero con resultados precisos y reales.
Comments
Post a Comment