Argumentos en Contra de La Ia

También podría gustarte

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 11

INTRODUCCIÓN EN CONTRA:

´´El hombre es un lobo para hombre´´ (Thomas Hobbes, El Leviatán), En su


obra El leviatán, Thomas Hobbes, filósofo del siglo XVIII, considera que el
estado natural del hombre (en la Edad de piedra) lo lleva a una lucha
continua contra su prójimo. Para controlar este afán destructivo del ser
humano, busca depositar todo su poder y sus voluntades en un ente
regulador: El Estado. Sin embargo, el ser humano u homo sapiens no
siempre puede ser regulado ni mucho menos contenido en ese afán
descubridor y contemplativo del espacio que lo rodea. Más bien puede
dejarnos un velo fúnebre por el largo recorrido de la historia de la
humanidad.
Es así que el historiador hebreo, Yuval Noah Harari, en su libro ´´Sapiens,
de animales a dioses. Una breve historia de la Humanidad´´ plantea:
´´La primera oleada de extinción, que acompañó a la expansión de los
cazadores – recolectores, fue seguida por la segunda oleada de
extinción, que acompañó la expansión de los agricultores, y nos
proporciona una importante perspectiva sobre la tercera oleada de
extinción, que la actividad industrial está causando en la actualidad.
Mucho antes de la revolución industrial, homo sapiens ostentaba el
récord entre todos los organismos por provocar la extinción del mayor
número de especies de plantas y animales. Poseemos la dudosa
distinción de ser la especie más mortífera en los anales de la biología. ´´
En consecuencia, al encontrarnos en los umbrales de la cuarta revolución
industrial (o en una revolución digital). El homo sapiens debe contemplar y
reflexionar acerca del impacto negativo que tiene y podría tener esta
cuarta revolución industrial adherida claramente al desarrollo de la IA, lo
cual pone y puede poner en riesgo su propia supervivencia como especie.
Y es por esta razón que surge una gran incertidumbre aparejados con
ciertas interrogantes.
Siendo las más saltantes en el presente siglo, las siguientes:
¿Quiénes decidirán los usos de las máquinas inteligentes? ¿Políticos,
magnates o un grupo minúsculo?
¿Quién y cómo controlar los sesgos (introducidos intencional o no
intencionalmente) a las máquinas?
¿Cómo afectarán las máquinas inteligentes nuestro comportamiento?
¿Hasta qué nivel es permisible “ensamblar” esas máquinas con nuestra
biología?
¿Qué derechos y deberes tendrán estos robots?
¿Quién es responsable por sus desarrollos y usos?
¿Qué nivel de decisiones se les permitirá tomar en asuntos humanos?

1.1
´´En el futuro las armas autónomas podrían decidir las guerras. Robots de
combate, misiles y drones inteligentes que podrían llegar incluso a matar
sin ser dirigidos por un humano. ¿Qué tan peligrosas son? ¿deberían ser
prohibidas? En primer lugar ¿qué es un arma autónoma?
Es un arma que puede localizar, seleccionar y atacar un objetivo de forma
independiente. La IA lo hace posible, con ella las armas pueden
programarse para que los algoritmos hagan el trabajo. Pero ¿cuáles son
los riesgos? Un dron armado que utiliza la inteligencia artificial puede
identificar un objetivo con características específicas como un soldado
enemigo y luego atacar. Para un arma de este tipo el ser humano es una
simple fuente de datos a analizar.
A diferencia de un soldado, un arma autónoma no puede tomar decisiones
morales en el campo de batalla. Esto plantea cuestiones éticas y jurídicas.
El progreso tecnológico es especialmente rápido en el caso de los drones
pequeños, si los comparamos con otros su producción es más barata; los
críticos temen que puedan producirse en masa en el futuro´´. (DW en
español, cadena alemana para el extranjero)

1.2 ´´El mundo entra en una nueva era militar, la IA se ha impuesto en


todas las fuerzas armadas del planeta y las armas adquieren cada vez
mayor autonomía. ¿Seremos capaces de mantenerlas bajo control?
Ahora los actuales sistemas de control de armas dependen de señales
digitales que son más vulnerables ante los ciberataques. Eso podría llevar
a las armas autónomas a generar reacciones nucleares que nadie quería. ´´
(DW en español, cadena alemana para el extranjero)

1 El uso no regulado de la IA podría subordinar los derechos e interés de


los pacientes, es decir, podría violar la seguridad del paciente por falta
de ciberseguridad, por medio de la recopilación de datos y utilización
poco ética de los datos sobre la salud; los sesgos codificados en los
algoritmos, y los riesgos que presenta la IA para la seguridad del
paciente, la ciberseguridad y el medio ambiente. ¿Por qué la
inteligencia artificial es un riesgo a la ciberseguridad? Simple, porque a
menudo guardamos datos, un claro ejemplo es el navegador Google
que invade nuestra privacidad, nosotros al entrar a una red social, por
ejemplo, dejamos datos, desde el tiempo que vemos detenidamente
una publicidad (si nos gusta) hasta en lo que compartimos, Google
almacena todos estos datos y puede venderlos, estos datos también se
pueden comprar. Incluso si nuestros datos “están seguros”, corremos
el riesgo de un ciberataque, donde un “hacker” puede acceder a
nuestra información, a nuestras tarjetas, etc. Y me pueden decir que
esto es cuestión de las medidas de seguridad que tome cada persona,
pero, ¿A caso no tenemos derecho de navegar libremente sin el temor
de que nos puedan hackear en cualquier momento? Si un hacker
accede a nuestras cámaras de seguridad en casa, tiene acceso a saber a
que horas estamos en casa, a que horas dormimos, a que cosas
realizamos durante el día…

Imaginemos por un momento que la información más privada de un


país llega a manos de un hacker, estamos hablando de todo: la
información de seguridad del país, sus secretos más oscuros, sus planes
a futuro, su personal más importante y sus datos; esto fue lo que pasó
la empresa de seguridad Italiana que provee programas de monitoreo
y espionaje a gobiernos y fuerzas militares en todo el mundo, fue
atacada con éxito por HT (la abreviatura de “Hacker Team”) que logró
publicar más de 400 gigabytes de información por internet (sus
clientes, el contenido de correos electrónicos y un gran etc),
curiosamente gran parte de la clientela está en Colombia, Malasia,
México, Mongolia, Tailandia, Italia, etc.
Con esto solo evidenciamos que realmente las empresas pueden
comprar nuestra información y venderla, además de que realmente no
estamos seguros en internet ya que podemos sufrir de un ciberataque.
https://cartelurbano.com/noticias/cyber-chuzadas-que-lo-involucran-
usted

Para apoyar mi argumento, en una conversación con Moises Naim,


Yuval Noah Harari (un historiador y escritor israelí, profesor en la
Universidad Hebrea de Jerusalén y autor de “sapiens: de animales a
dioses”, “Homo Deus: Breve historia del mañana” y “21 lecciones para
el siglo XXI”) dijo y cito: «En el siglo XXI, la información es el activo más
importante. Es la base del poder político. Quienes controlan los datos
controlan el mundo. Y no debemos permitir que todos los datos sean
recolectados y controlados por un pequeño número, sea de
corporaciones o de gobiernos, porque esto puede llevar a una nueva
forma de dictaduras digitales y a una nueva forma de colonialismo de
datos».
También Yuval Noah Harari hace mención a la inteligencia artificial y al
colonismo de datos en (21 lecciones para el siglo XXI, Yuval Noah
Harari)

´´ Cuando los algoritmos llegan a conocernos tan bien, los gobiernos


autoritarios se harán con un control absoluto sobre sus ciudadanos,
más incluso que en la Alemania nazi, y la resistencia a tales regímenes
podría ser de todo punto imposible. El régimen no solo sabrá
exactamente cómo sentimos: podrá hacer que sintamos lo que quiera.
El dictador el dictador tal vez no sea capaz de proporcionar a los
ciudadanos asistencia sanitaria o igualdad, pero podrá hacer que lo
amen y que odien a sus oponentes. En su forma actual, la democracia
no sobrevivirá a la fusión de la biotecnología y la infotecnología. O bien
se reinventa a sí misma con éxito y de una forma radicalmente nueva,
o bien los humanos acabarán viviendo en´´ dictaduras digitales´´. ´´

1.4 El peligro con la Inteligencia Artificial es que sea cada vez más fácil
manipular a los humanos mediante la manipulación de sus
sentimientos, según Yuval Noah Harari (un historiador y escritor
israelí, profesor en la Universidad Hebrea de Jerusalén y autor de
“sapiens: de animales a dioses”, “Homo Deus: Breve historia del
mañana” y “21 lecciones para el siglo XXI”) en una entrevista con
Moises Naim donde se le pregunta «¿Nuestros sentimientos y
emociones van a ser silenciados por los algoritmos?. ¿Nuestras
sociedades futuras están destinadas a vivir con nuestros
sentimientos como motor principal? ¿Puede describir un mundo
alternativo muy diferente al actual?» a lo que él responde:

Yuval Noah Harari: Mientras haya humanos, habrá sentimientos. Esto


es realmente lo que nos define. La gran diferencia entre los humanos y
la inteligencia artificial no es la inteligencia. La inteligencia, la
capacidad de resolver problemas, ya sea en matemáticas o en ajedrez
o en medicina, no es exclusiva de nosotros. Los ordenadores también
pueden hacerlo. Lo que es único para nosotros es que tenemos
sentimientos, y también otros animales tienen sentimientos, pero los
ordenadores no los tienen. Cuando un computador te derrota en el
ajedrez, no se siente feliz. Cuando un computador pierde, no se siente
triste. No tiene sentimientos. Ahora bien, a medida que los
computadores se vuelven más y más potentes, no creo que hagan
desaparecer los sentimientos humanos. El peligro es que sea cada vez
más fácil manipular a los humanos mediante la manipulación de sus
sentimientos. Esto es lo que vemos con las redes sociales, de las que
hemos hablado antes. Las redes sociales no hacen desaparecer los
sentimientos: los manipulan. Las grandes corporaciones y los
algoritmos presionan el botón del odio en tu mente, presionan el
botón del miedo, y así es como te manipulan y hacen que te quedes
más tiempo en la plataforma o que votes por este político o que
compres este producto. Debemos darnos cuenta de que ahora los
humanos pueden ser hackeados de la misma manera que se puede
hackear un smartphone o un banco. Ahora se puede hackear al ser
humano, y nuestro código son las emociones, los sentimientos.
Durante toda la historia, la gente quiso hackear a los humanos, pero
era demasiado difícil. No tenían la tecnología, el conocimiento para
entender realmente lo que pasa dentro de nosotros. Ahora se está
volviendo factible, y eso es muy peligroso, no porque vaya a hacer
desaparecer los sentimientos, sino porque nos hace muy vulnerables a
ser controlados y manipulados por grandes sistemas que entienden lo
que ocurre en nuestro interior mejor que nosotros.

1.5 SESGOS DE LA INTELIGENCIA ARTIFICIAL


En el apartado de documentación de Microsoft Learn publicado el 21
de septiembre del 2022 que dice y cito: “La inteligencia artificial debe
ser capaz de reconocer el sesgo en los demás, sin padecer el sesgo en
sus propias interacciones con las personas. Para ello, se requiere una
comprensión colectiva y en constante evolución de los sesgos,
estereotipos, jergas y otras construcciones culturales. Una
comprensión tal ayudará a proteger la inteligencia artificial frente a
ataques de ingeniería social y manipulación de conjuntos de datos. En
realidad, un sistema correctamente implementado se hará más
robusto a partir de estos ataques y podrá compartir su conocimiento
ampliado con otras inteligencias artificiales.” Es decir, aquello es de lo
que carecen algunas inteligencias artificiales…

La UNESCO determina que Los sistemas de inteligencia artificial dan


resultados sesgados. La tecnología de los motores de búsqueda no es
neutral, ya que procesa macrodatos y prioriza los resultados con la
mayor cantidad de clics dependiendo tanto de las preferencias del
usuario como de la ubicación. Por lo tanto, un motor de búsqueda
puede convertirse en una cámara de resonancia que mantiene los
prejuicios del mundo real y afianza aún más estos prejuicios y
estereotipos en línea.

¿Cómo podemos garantizar resultados más precisos y equitativos?


¿Podemos reportar los resultados de búsqueda sesgados? ¿Cuál sería o
debería ser la representación exacta de las mujeres en los resultados
de búsqueda?

Esto lo podemos observar en el caso de Facebook, que ha tenido que


pedir disculpas públicamente por el comportamiento racista de sus
herramientas de “inteligencia” artificial… Y la pregunta del millón es
POR QUÉ
el viernes 3 se septiembre de 2021 desactivó una de sus rutinas de
etiquetado automático y recomendación de vídeos tras detectar que
había asociado a varios hombres negros con la etiqueta "primates" y
sugería a los usuarios ver más vídeos de primates a continuación.
El fallo, de por sí, es grave, pero se vuelve aún más preocupante
cuando se considera que no es la primera vez que las grandes
compañías tecnológicas de Silicon Valley tiene que enfrentarse con
este problema.

En 2015, por ejemplo, el software de reconocimiento de imágenes de


Google clasificó varias fotos con personas negras como "gorilas". La
única solución que encontró la empresa, considerada a la vanguardia
de las técnicas de inteligencia artificial, fue eliminar por completo las
etiquetas asociadas a primates (gorila, chimpancés, monos...) para
evitar que sus algoritmos siguieran asociándolos a fotos de seres
humanos.

El año pasado, Twitter se encontró con un problema relacionado. Un


informático, Toni Arcieri, descubrió que el algoritmo que recorta
automáticamente las imágenes cuando son demasiado grandes
ignoraba los rostros negros y se centraba en los de personas blancas,
independientemente de la posición en la imagen.
La conocida aplicación Zoom, estrella involuntaria de la pandemia, ha
tenido también que modificar el código de sus aplicaciones tras
detectar que la función de fondos virtuales podía borrar la cabeza de
personas de raza negra, sobre todo si tenían la piel muy oscura,
independientemente de lo bien iluminadas que estuvieran.

Esto es un sesgo implícito

¿Por qué siguen ocurriendo estos casos? Aunque solemos hablar de


"inteligencia artificial", los algoritmos que se utilizan para detectar y
etiquetar personas, animales y objetos en un vídeo o una foto no son
realmente tan inteligentes como podría parecer en un primer
momento.

Se programan utilizando varias técnicas de aprendizaje automatizado.


Los desarrolladores alimentan la rutina con miles o millones de
imágenes o vídeos de ejemplo y el resultado que esperan obtener. El
algoritmo, a partir de estos ejemplos, infiere el modelo que debe
aplicar a cualquier situación posterior.

Si durante esa fase de entrenamiento no se seleccionan


cuidadosamente los ejemplos, es posible introducir sesgos en el
modelo. Si todos los vídeos o la mayoría de vídeos muestran personas
de raza blanca, por ejemplo, el algoritmo podría tener problemas para
identificar correctamente a una personas de raza negra en el futuro.

Además, los ordenadores se encuentran con otros obstáculos a la hora


de reconocer o etiquetar correctamente a personas de raza negra en
vídeos y fotos. Una de las formas en las que un ordenador analiza una
foto o una fotograma es estudiando el contraste entre las diferentes
zonas de la imagen. Los rostros de tonalidad clara tienden a mostrar
más contraste entre las y por tanto tienden a ser valorados de forma
mucho más precisa.

Esto puede tener consecuencias muy graves. Incluso los mejores


algoritmos de identificación facial, por ejemplo, tienden a confundir a
las personas de raza negra entre cinco y 10 veces más que a las de raza
blanca.
Varias agencias de seguridad están comenzando a utilizarlos a la hora
de resolver crímenes o investigar posibles delitos y muchas
organizaciones centradas en la protección de derechos civiles creen
que esta mayor tasa de error acabará perjudicando a la población de
raza negra, que ya sufre de forma habitual mayor presión durante las
investigaciones y los juicios.

Conforme las herramientas basadas en aprendizaje máquina e


inteligencia artificial se expanden a otras tareas, los sesgos en el
sistema pueden generar problemas inesperados en todo tipo de
situaciones.

Amazon, por ejemplo, trató de crear un sistema automatizado para


considerar candidatos a puestos de trabajo hace unos años. Durante el
proceso de entrenamiento utilizó más curricula de hombres que de
mujeres. La compañía descubrió que el algoritmo resultante tendía a
rechazar candidatas con más frecuencia incluso sin saber el sexo de la
persona, basándose en marcadores que había aprendido de los miles
de ejemplos, como la universidad o el colegio al que habían asistido.

https://learn.microsoft.com/es-es/security/engineering/securing-
artificial-intelligence-machine-learning
https://www.elmundo.es/tecnologia/
2021/09/07/6136448bfdddff8c328b465a.html
https://es.unesco.org/artificial-intelligence/ethics/cases#:~:text=PERO
%20hay%20muchos%20desaf%C3%ADos
%20%C3%A9ticos,discriminatorios%2C%20sesgos%20incrustados%20o
%20insertados.

1.6 Citaré un párrafo que se encuentra en el libro (21 lecciones para


el siglo XXI, Yuval Noah Harari)
´´ El peligro es que, si invertimos demasiado en desarrollar la
inteligencia artificial y demasiado poco en desarrollar la conciencia
humana, la inteligencia artificial muy sofisticada de los ordenadores
solo servirá para fortalecer la estupidez natural de los humanos. Es
improbable que nos enfrentemos a una rebelión de robots en las
décadas venideras, pero podríamos tener que habérnosla con multitud
de bots que saben cómo pulsar nuestros botones emocionales mejor
que nuestra madre, y utilizar esta asombrosa capacidad para intentar
vendernos cosas, ya sea un automóvil, a un político o una ideología
completa.

La IA tiene otro impacto negativo, ya que aumenta la desinformación.

En 2020, el grupo activista Extinction Rebellion creó un deepfake (es


decir, que utiliza la IA para crear una imagen falsa) para producir un
discurso ficticio de la primera ministra belga Sophie Wilmès.

Y si nos situamos en la actualidad, RTVE Noticias hizo pública un


deepfake con el rostro del presidente Ucraniano en el que llama a sus
tropas a rendirse ante Rusia… ¿Qué impacto pudo tener esto en la
actual guerra? Consecuencias gravísimas, obviamente… Porque con
esto se manipularía a aquellos civiles inocentes que, finalmente,
causarían una catástrofe en su país.

1.4 ´´ El dilema más importante en la economía del siglo XXI bien pudiera
ser qué hacer con toda la gente superflua. ¿Qué harán los humanos
conscientes cuando tengamos algoritmos no conscientes y muy
inteligentes capaces de hacer casi todo mejor?´´
(Homo Deus, Breve historia del mañana; Yuval Noah Harari)
´´ A medida que los algoritmos expulsen a los humanos del mercado
laboral, la riqueza podría acabar concentrada en manos de la minúscula
élite que posee los todopoderosos algoritmos, generando así una
desigualdad social y política sin precedentes. Alternativamente, los
algoritmos podrían no solo dirigir empresas, sino también ser sus
propietarios.´´
(Homo Deus, Breve historia del mañana; Yuval Noah Harari)
CONCLUSIÓN EN CONTRA:
La inteligencia artificial, como toda tecnología, no es buena ni mala en sí misma, lo que sí lo
torna negativo es la utilización que los seres humanos u homo sapiens hacemos de ella. Ya que
puede utilizarse para manipular y distorsionar la información, para ciberataques, vigilancia
electrónica, discriminación racial o de género.

Lamentablemente el ser humano a lo largo del recorrido que ha tenido por la faz de la tierra,
ha ido impregnando a esta, también su poder destructivo. La revolución cognitiva, la
revolución agropecuaria, las revoluciones industriales que con tanto afán generaron un
crecimiento poblacional sostenido, también sumieron a diversos grupos humanos en un afán
de expansión con caracteres imperialistas, desatando de tal manera las guerras mundiales, la
guerra fría y su era atómica, hasta trasladarnos a los enfrentamientos entre Rusia y Ucrania e
Israel y sus vecinos musulmanes en la actualidad. Por ello, es así que el ser humano a través de
la historia, ha padecido y ha luchado contra tres variables incesantes en su quehacer como
producto histórico. Siendo estos, las hambrunas, las epidemias y sobre todo las guerras. Y es
precisamente esta última variable la que más preocupa; por ello el científico británico Stephen
Hawking, uno de los más destacados en el campo de la astrofísica, le dijo a la BBC que el
esfuerzo que estamos haciendo en crear inteligencia artificial (IA) podría acabar con el
hombre. Y cito textualmente:

´´Las formas primitivas de IA que tenemos en la actualidad han demostrado ser muy útiles.
Pero pienso que el desarrollo pleno de la IA puede llevar al fin de la raza humana. Una vez que
los seres humanos desarrollen la IA, esta despegará por sí misma y se rediseñará a un ritmo
cada vez mayor.
Los seres humanos, limitados por la lenta evolución biológica, no podrán competir. ´´

Por lo tanto, el verdadero riesgo en la actualidad se presenta frente a la utilización y


manipulación de la tecnología que violenten los derechos humanos y los principios del Estado
de Derecho. El desarrollo de tecnología de punta suele estar reservado a países desarrollados
que realizan grandes inversiones en el área tecnológica y que además son los primeros en
beneficiarse económica y militarmente. Siendo así que ante la naturaleza depredadora del
homo sapiens, el uso de IA para perseguir diversos fines éticamente valorables nos hace
considerar que ponemos en peligro la existencia de la humanidad. Así parezca apocalíptico,
pero debería ser un gran punto a considerar por todos nosotros que aún gozamos de
conciencia autónoma. Muchas gracias.

También podría gustarte