Coleccion: Gaceta Penal - Tomo 177 - Articulo Numero 19 - Mes-Ano: 3_2024Gaceta Penal_177_19_3_2024

Automatización de la corrupción y la máquina humana deseosa de poder, éxito y dinero: psicópata funcional amoral. Uso corrupto de la inteligencia artificial (IA), y observación, vigilancia y seguimiento (OVISE) para detectarlos

Corruption automation and The human machine desirous of power, success and money: amoral functional psychopath. Corrupt use of artificial intelligence (AI), and observation, surveillance and monitoring (OVISE) to detect them

Reynaldo Ariano ABIA ARRIEGA*

Los “algoritmos bioquímicos del cerebro” se basan “en el ensayo y el error, atajos y circuitos anticuados adaptados a la sabana africana y no a la jungla urbana”. Yuval N. H. (2022).

“La IA es una especie artificial creada por otra especie: Homo sapiens. La especie artificial más alta de la cadena será la súper IA autónoma”. Oriana V. A. G. (2023).

Resumen: Los avances de las tecnologías de la información y la comunicación (TIC) traen desafíos legales. Se visibiliza el uso corrupto de la inteligencia artificial (IA), en poder de ciertos gobiernos, élites tecnológicas antiéticas y psicópatas funcionales amorales, como el uso de técnicas de encriptación u ocultamiento de información corrupta. Esto se aborda desde la visión de la Unesco (2022), Transparencia Internacional (2022) y otros. Los órganos de persecución penal deben aplicar los artículos 207, 341 y 341-A del Código Procesal Penal para detectarlos y tener infraestructura forense acreditada y expertos en IA, para afrontar la potenciación de la automatización de la corrupción, para la búsqueda masiva, rápida y profunda, desde lo más recóndito de las evidencias digitales y las cajas negras.

Abstract: Advances in information and communication technologies (ICT) bring legal challenges. The corrupt use of artificial intelligence (AI) is made visible, in the power of certain governments, unethical technological elites and amoral functional psychopaths, such as the use of encryption techniques or concealment of corrupt information. This is addressed from the vision of UNESCO (2022), Transparency International (2022) and others. The criminal prosecution bodies must apply articles 207, 341 and 341-A of the Criminal Procedure Code to detect them and have accredited forensic infrastructure and AI experts, to confront the enhancement of the automation of corruption, for the massive, rapid and deep, from the deepest recesses of digital evidence and black boxes.

Palabras clave: Inteligencia artificial / Delitos de corrupción / Proceso Penal / Investigación

Keywords: Artificial intelligence / Corruption crimes / Criminal Procedure / Investigation

Marco normativo:

Código Procesal Penal: arts. 207, 341 y 341-A.

Recibido: 8/3/2024 // Aprobado: 16/3/2024

I. INTRODUCCIÓN

Se exponen los avances tecnológicos y desafíos legales penales para el siglo XXI, donde, más que sustantivos (sobre su tipificación), serán de tipo adjetivos (procesales), como encontrar y asegurar la evidencia digital sofisticada, para su procesamiento y enjuiciamiento, donde su análisis requiere de expertos: testigos técnicos o peritos. Esto como parte del imparable avance de las tecnologías de la información y la comunicación (TIC), por el uso del internet a escala global, elaboración y preprogramación de algoritmos complejos. Donde ciertos ciberespacios son una incógnita más que ocultan transacciones masivas; y serían espacios propicios que confluyen máquinas humanas deseosas de poder, éxito y dinero, con instrumentos capaces de encriptar, disfrazar y automatizar la corrupción. Es un desafío procesal para la investigación fiscal, que, apoyado en la misma tecnología, a través del uso de ingeniería inversa, se pueda desencriptar la automatización de la corrupción, e identificar al autor o al cómplice (sobre la base de la teoría de infracción de deberes) de hechos sofisticados, vinculados a empresas privadas; sobre todo cuando más y más el Estado está inmerso en el proceso de adquisición, implementación o renovación tecnológica de su infraestructura. Su poca comprensión aleja o diluye la responsabilidad penal de sus autores y genera impunidad; pues expertos que están detrás, en la preprogramación, formulación de algoritmos y entrenamiento de estos, de quienes depende el uso corrupto de la inteligencia artificial (IA), mantienen en custodia patentes o verdaderas cajas negras. Dicha tecnología está en poder de ciertos gobiernos, élites tecnológicas antiéticas o psicópatas funcionales amorales. Más allá que tales actos se den de la superposición o la frontera de un delito informático (delito medio), en realidad tienen como finalidad que los agentes públicos pacten entre ellos mismos o con particulares, para aprovecharse de la administración pública, en interés privado. Los órganos de persecución penal deben aplicar los artículos 207 (videovigilancia), 341 (agente encubierto y agente especial) y 341-A (operaciones encubiertas) del Código Procesal Penal para detectarlos, pero necesitan de infraestructura forense y expertos en IA para afrontar la potenciación de la automatización de la corrupción, que gestiona algoritmos sesgados para –desde dentro o fuera– manipular, direccionar o capturar algoritmos fuente beneficiosos de la administración pública, o aplicar algoritmos para incursionar, encriptar o disfrazar la corrupción.

II. DESARROLLO

1. Planteamiento del problema y formulación de hipótesis

Un medio corruptor es el dinero usado como forma de intercambio físico tradicional para la coima o el soborno; pero el imparable avance de las tecnologías de la información y la comunicación (TIC) crea otras formas de intercambio que ya no solo dependen del papel o el metal, sino del dinero electrónico (Parada y Errecaborde, 2018, p. 8), que circula mediante el uso de aplicativos como yape o plin, o de las criptomonedas como el bitcoin. Por otro lado, están los incentivos como los regalos costosos u otras ventajas, como el intercambio de favores políticos en votaciones a cambio de favores legales, fiscales o judiciales (para el archivo de casos); ascensos; favores sentimentales o amoríos, que se extienden a la solicitud de favores sexuales como moneda de intercambio (corrupción sexual o sextorsión), que puede ser mediante el envío de escenas sexuales por internet, entre un agente público y los litigantes; donde se suman los activos económicos como la información confidencial, patentes y tecnologías de la información; por ejemplo, el tráfico o filtración de información reservada o secreta entre agentes públicos y ciertos medios de comunicación monopólicos, para intercambio interesado en apoyo, respaldo y limpieza de actos irregulares, como no sacar el lado negativo de ciertas autoridades fiscales, judiciales o políticas, para mantenerse en el poder, cuya convivencia e intercambio de favores resalta y explota información reservada en interés personal o de grupos de poder; que no guarda relación con información objetiva de interés público y el esclarecimiento de los hechos, sino que tiene un sesgo intencional para direccionarla, aprovecharla, gestionarla y explotarla en el negocio de las comunicaciones o interés privado. Asimismo, están los casos de aprovechamiento de los recursos físicos o tecnológicos del Estado, el tráfico de influencias para intermediar y llegar a arreglos con quienes toman las decisiones, o los que direccionan los procesos de contratación estatal en el contexto del uso de las TIC o IA. Es decir, aparecen nuevas fuerzas motivadoras, patrimoniales o no patrimoniales, en el ejercicio abusivo del poder corrupto dentro de la administración pública. Acciones que son tipificadas dentro de los alcances de los artículos 382 al 400 del Código Penal peruano, bajo la luz de la teoría de los delitos de infracción de deber (Salinas, 2021, pp. 35-47, cita a Roxin, 2014, p. 180).

Las TIC disruptivas, si bien son espacios para el progreso en bien de la humanidad, pero también han hecho surgir el fenómeno de la inteligencia artificial (IA) corrupta, definida como su uso abusivo por los titulares del poder para beneficio privado (Transparencia Internacional, 2022), creados por ingenieros inescrupulosos o los que controlan el poder, tienen ascendencia o mando sobre expertos con acceso a los códigos fuente. En muchos casos dichos actos son realizados por sujetos insensibles deseosos de poder, éxito y dinero: psicópatas funcionales (Velasco, 2021, pp. 147-165), cuya característica principal es que no tienen empatía y son amorales, que actúan dentro de los ámbitos de liderazgo, gestión o centros de poder, a fin de manipular, capturar, aplicar o direccionar procesos o resultados informáticos, desde fuera o desde dentro de la base de datos de la administración pública. Estos hechos se dan en los momentos que el Estado adquiere, implementa o renueva su infraestructura tecnológica, donde regularmente es desarrollado por empresas privadas. Más allá de su regulación o no. Según Neoris Insights en los próximos años, el 10 % del PBI del planeta se invertirá en tecnología (2023). Esto trae desafíos legales, más que sustantivos, de tipo adjetivos, que redefine nuestra visión para afrontar la automatización de la corrupción. Los cuales pueden darse casi en la superposición o en las fronteras con el cibercrimen o los delitos informáticos (Parada y Errecaborde, 2018), que puede significar el comienzo de una conducta ilícita (delito medio), pero que en realidad tienen como finalidad (delito fin) la acción corrupta, en perjuicio de la correcta administración pública o los recursos estatales, a través de intercambios, pactos subrepticios, etc., teledirigidos desde la gestión humana que está detrás y que crea o se aprovecha de una IA para uso corrupto.

Por lo que algunos sujetos –como las élites tecnológicas, sobre todo de la generación del milenio, la generación Z y las siguientes– familiarizados con las tecnologías digitales, los medios de comunicación y las redes sociales, que están dispuestos a transar o irrumpir ilegalmente con las TIC, actúan con la anuencia de los funcionarios o servidores públicos, quienes son tentados para que dejen pasar o flexibilizar los controles informáticos, o que a propia iniciativa se apropien o usen indebidamente una IA pública, en beneficio personal, político o privado. Piénsese, por ejemplo, en la generación de IA (bots en redes sociales) para uso y generación de noticias, chats o comentarios falsos, rápidos y masivos, para desprestigiar a oponentes políticos y mantener el statu quo del poder, o con ayuda de IA se encripten (desde un smartphone u ordenador) –en infinidad de posibilidades– las conversaciones vía chat o correos electrónicos, sobre sobornos, que pasará desapercibido al ojo humano.

En ese sentido, ocultar o disfrazar los actos corruptos no será complicado si se programa y usa la IA indebidamente, pues parecido a los códigos con lexicografía delincuencial, manejados por élites, capos, empresarios bien relacionados, etc., se avizora el uso de IA como la esteganografía, chatbot o chatGPT, para encriptar la corrupción: solicitudes ilegales, acuerdos defraudatorios, cláusulas contractuales ventajosas; uso de signos matemáticos, codinomes[1] e imágenes distorsionadas para disfrazar los montos de las coimas o sobornos, ocultar a sus beneficiarios o la ubicación de los medios corruptores, en interés político o privado. Otros países ya experimentan formas de manipulación, captura y aplicación de algoritmos sesgados, sobre todo, en transacciones o actos administrativos masivos, incluso en contra de los servicios con IA beneficiosos. Dada la complejidad de estos actos, la responsabilidad del corrupto se diluye y se desvía hacia la IA en apariencia defectuosa, para negar cualquier culpabilidad, que incrementa la desconfianza y el alejamiento psicológico de las víctimas ante su incomprensión (Transparencia Internacional, 2022).

Entonces, ¿qué podría significar si una IA es preprogramada para tener códigos, comandos o acciones de intrusión, apropiación o corruptas, que autoaprenda[2] para infiltrarse, descifrar claves u ocultar fraudes en la administración pública?, operadas o que están detrás expertos deshonestos. El resultado que se avizora es que, dada la naturaleza humana imparable (Harari, 2023) y su supervivencia a cualquier costo, se combina la creatividad humana con herramientas tecnológicas para el mal, que potenciaría la automatización de la corrupción. Siendo que la creación de IA corrupta, en un entorno interconectado a escala global, hace que también alcance a nuestro país, donde no se tiene data de cómo vienen afrontando los organismos especializados en delitos de corrupción de funcionarios (fiscales y policías), ante estos cambios tecnológicos. En la práctica se da una marcha lenta en nuestro entorno burocrático carente de infraestructura con TIC, laboratorios forenses acreditados y personal calificado para la investigación de estos casos nuevos. No se sabe de esos casos o simplemente no se detectan.

Ante el avance disruptivo de las TIC, notamos tres problemas que los formulamos a través de las siguientes preguntas:

P1:

¿Cómo se incursiona, encripta o disfraza la corrupción ante el avance de las tecnologías de la información y la comunicación (TIC), e inteligencia artificial (IA)?

P2:

¿De quién depende la existencia de inteligencia artificial (IA) corrupta que irrumpa en

las decisiones de la Administración Pública?

P3:

¿Estamos preparados para afrontar e investigar el imparable y acelerado avance de las

TIC e IA, en el contexto de la automatización de la corrupción?

En respuesta a estas interrogantes formulamos las siguientes hipótesis:

H1:

En el siglo XXI ciertos titulares del poder, élites tecnológicas o psicópatas funcionales amorales incursionan, encriptan o disfrazan la corrupción mediante el uso de las TIC y preprogramación de IA sesgados, manipulados o capturados –desde dentro o fuera– de la Administración Pública, para direccionar la big data estatal u otros, para sacarle ventaja, en interés privado, en muchos casos bajo el pretexto de la custodia de patentes cuando son verdaderas cajas negras.

H2:

La existencia de IA corrupta o su automatización sesgada depende del ser humano que está detrás de su diseño, implementación o gestión de sus algoritmos, en contubernio con el ejercicio del poder de las autoridades, pequeñas o grandes, a propia iniciativa o con élites tecnológicas o psicópatas funcionales amorales, quienes crean, tienen acceso a los códigos fuente, usan y los direccionan en interés privado.

H3:

No contamos con infraestructura forense acreditada en TIC y expertos en IA, para las investigaciones, ante la automatización de la corrupción. En mayo del 2023 se informó el retardo de miles de pericias a nivel nacional, encomendadas a la Gerencia de Peritajes del Ministerio Público; así también, para noviembre de 2023, el Departamento de Análisis y Coordinación a Nivel Nacional (DEPACNN), de la División de Investigación de Delitos de Alta Tecnología (Divindat) de la PNP, reporta sobrecargas.

2. Contrastación de la realidad problemática

2.1. Visión tecnocientífica de la automatización de la corrupción y uso corrupto de la inteligencia artificial (IA)

El problema es desconcertante cuando el Estado, rezagado en su transformación, no hace nada; donde sus aparatos de persecución penal padecen ante el cibercrimen y la corrupción moderna, sobre todo cuando los delitos de cuello blanco o guante de seda confluyen con el uso de instrumentos tecnológicos sofisticados, que ante la complejidad, desequilibrio y la dificultad de investigarse, esos aparatos prefieren aliarse –mediante mecanismos de colaboración eficaz– con la élite delincuencial, para mostrar resultados mediáticos en contra de los más ordinarios, ante la amenaza de resultados aciagos, pues “el excesivo juridicismo y garantismo”, “crea (…) una doble balanza de la justicia: de un lado, la balanza que penaliza sistemáticamente los delitos de los pobres [o no tan pobres], y de otro, la que se muestra complaciente y condescendiente con los delitos de los ricos” (Sutherland, citado por Velasco, 2021, p. 160); debido a que las élites, titulares del poder o los ricos están acostumbrados a comprarlo todo con dinero, hasta comprar el mérito, la credencial o el éxito (Sandel, 2023), para disfrutar y demostrar de su poder de disposición ilegal sobre las otras personas, buscando siempre una red de contactos o relaciones, para saltar y entrar por la puerta falsa; así, por ejemplo, “no [se] recuerda ningún caso de persona que haya ganado un juicio ante una de las grandes empresas tecnológicas” (Adsuara, citado por Serrano, 2022, p. 290).

Las tecnologías disruptivas en manos de las élites tecnológicas –que los pagan y desarrollan– revolucionan los clásicos parámetros de la evolución orgánica, etiquetados por la biología, que redefinen sus conceptos clásicos que dan origen a una especie electrónica imparable: inteligencia artificial (IA), que mueve a máquinas, robots, ciborgs, etc.; que surgió a nuestra imagen y semejanza, sobre nuestros deseos de poder, éxito y dinero, incentivada por las ciencias de la computación, informática, ingeniería, matemática, lógica, lingüística, las comunicaciones, neurociencia, etc. No siendo todavía “un escenario en que la IA ha superado la inteligencia humana y se ha vuelto la fuerza dominante de la sociedad” (Wikipedia: Tegmark, 2017), pero sí nos obliga analizar la realidad presente de las TIC y cómo el ciberespacio será aprovechado por la corrupción galopante y automatizada.

Es de expresarse que “el surgimiento de la inteligencia artificial se produce gracias a la combinación de varios elementos: el primero de ellos el big data que, como hemos dicho, constituye el contenido que la máquina observa y adopta, aprendiendo de ellos; en segundo lugar, el aumento de la velocidad de computación, pues es necesario que la máquina aprenda rápidamente; y, en tercer lugar, la existencia de algoritmos que simulan el funcionamiento de un cerebro humano dentro de una máquina” (Serrano, 2022, pp. 218-219). Siendo que todo ello está en poder de gobiernos del primer mundo o grandes empresas tecnológicas de manejo oligopólico o monopólico. Entonces, la IA resulta ser una especie artificial creada por otra especie: Homo sapiens. Pero, tal como la historia de la humanidad revela de “tres grandes revoluciones que nuestra especie ha protagonizado: la cognitiva, la agrícola y la científica” (Harari, 2014, p. 15), donde –hasta ahora– “los sapiens son incapaces de librarse de sus límites determinados biológicamente” (Harari, 2014, pp. 435-454); así también –ante nuestros límites– toca avizorar que la posta de la revolución tecnocientífica lo hará la inteligencia artificial (IA), que camina hacia tres grandes fases: la primera, IA estrecha o débil (donde ahora nos encontramos, por ejemplo apareció el chatGPT-4); la segunda, IA de alcance general o fuerte (que en las próximas décadas se desarrollará), y, la tercera, la súper IA (donde más adelante se verán máquinas autónomas y realizarán múltiples actividades) (BBC News Mundo, 2023); donde, nos guste o no, se basa en los principios o leyes científicas evolutivas: prevalece el más apto.

Siendo que “La tolerancia no es una marca de fábrica de los sapiens. En tiempos modernos, pequeñas diferencias en el color de la piel, el dialecto o la religión han sido suficientes para animar a un grupo de sapiens a que se dispusiera a exterminar a otro grupo” (Harari, 2014, p. 31). Por lo que se contrasta que el comportamiento social es regulado por el gen egoísta (Dawkins, 1976), que “programa al individuo para la perpetuación del alelo [dos o más versiones de una secuencia de ADN] a cualquier precio”. Donde la corrupción es una marca que define nuestra astucia al momento de conseguir cosas, cuando se quiere evitar la agresión. Todo lo que somos y hacemos será reflejado en lo que tocamos y transmitimos al aplacar nuestras necesidades e intereses. Ahora apoyado de tecnología disruptiva. Así, el siglo XXI nos revela que el desarrollo de las tecnologías de la información y la comunicación (TIC) irrumpen en la vida humana de manera acelerada y abrupta, tanto de manera positiva como negativa; pues depende de quién lo use o para que se use. Por ejemplo, se usa inteligencia artificial (IA) médicas para salvar vidas; el caso de VigIA “contribuye a que la contratación pública cumpla un rol fundamental para dinamizar el crecimiento económico de los países” (Gallego, en CAF, 2021); la IA Percephtor, “que podría apoyar a los ciudadanos a vigilar las obras públicas, evaluar el desempeño de sus políticos y reducir la corrupción” (Wired: Tovar, 2023); así también, se crea IA exploratorias para desarrollar armas autónomas de destrucción masiva.

Por eso se plantean recomendaciones para el control, uso ético y transparente de la IA, en el sector público y privado (Unesco, 2022); sobre todo en el empleo de IA para atenciones y acceso a los servicios públicos masivos y de grupos vulnerables. En ese contexto, una solución a la problemática medioambiental, conflictos sociales, necesidades humanas apremiantes e incremento de la criminalidad, viene siendo la creación y desarrollo de IA para desplazar máquinas automatizadas, robots, humanoides o ciborgs, o desplazar a los mismos humanos, sobre la base de la operativización y ejecución de órdenes humanas, que todavía están detrás de ellos o que operan de manera complementaria en la verificación del procesamiento de grandes volúmenes de información o big data, a fin de optimizar recursos y ser más eficientes.

En ese camino, la mano del hombre interviene poco, pues viene siendo reemplazado por algoritmos o sensores fisicoquímicos (conectadas a cámaras o audífonos para detectar voces o rostros, o detectar humo y calor, etc.), que auto aprenden velozmente, ya que se ha pronosticado que para el “2049, la IA será mil millones de veces más inteligente que los humanos” (Gawdat[3], 2021). La creación o programación de procesos a través de ordenadores tiene por fin transmitir comandos informáticos o de la información para transformarlos en acciones concretas como la de tomar, moldear o transformar, desde una roca o un metal, hasta la toma de decisiones en la vida humana misma, de manera individual o en sociedad. Si bien es cierto todavía no existe una IA que por sí sola lidere, sea creativa, empática o resiliente, capaz de cooperar con otras IA o humanos, si preocupa que en algún momento pueda alcanzar esa capacidad o singularidad humana, y ¿qué pasará con nosotros? Hasta entonces debemos gestionarla éticamente para controlar su uso disruptivo o corrupto a escala global.

Todavía las TIC y la IA son supervisadas y retroalimentadas con información por un ser humano, para el comercio y el consumo. Pero se avizora que el incesante progreso tecnocientífico acrecentará las pugnas por escasez y el poder ilimitado traerá autocorrupción-automatizada-potenciada, y más desigualdad. En ese contexto las redes informáticas corruptas estarán bien ocultas o encriptadas, para evadir barreras, controles, denostar o crear historias falsas en contra de la competencia y la supervivencia de sus dueños, o tomar ventajas para obtener lo deseado, para aplacar intereses o vicios particulares, pues la historia humana demuestra que somos imparables (Harari, 2023[4]), que confirma la presente “marcha ininterrumpida de la tecnología digital” que “no muestra signos de desaceleración” (Galloway, 2019, pp. 271 y 272).

Más allá del nihilismo y de luditas, vemos que este mundo global interconectado “ejerce una presión sin precedentes sobre nuestra conducta personal y nuestros valores” (Harari, 2018, p. 13), y viene siendo dicha presión circunscrita a la irrupción de la infotecnología, biotecnología, automatización e inteligencia artificial (IA) de manera abrupta, que preocupa que se desvíe hacia la aceleración de la autocorrupción tecnológica; pues muchos actores de este cambio generacional, presentes en el sector público o privado, no necesariamente lo harán de manera pacífica o impoluta, sino por actos agresivos o corruptos. Y si la moneda, como un mecanismo de intercambio físico, que desde antaño es fuente de poder y corrupción, no circula como tal, sino en un entorno inmaterial con el uso de dinero electrónico (Parada y Errecaborde, 2018, p. 8); que crea el mismo efecto, pues también lo compra todo, hasta la conciencia o el alma humana, y en esa medida el poder legal contemporáneo está en controlar las tecnologías que custodian activos económicos electrónicos y que circulan gracias a la interconexión de las comunicaciones a escala global, como mecanismos más prácticos, atractivos, desafiantes y prometedores, para un crecimiento masivo, donde surgen sujetos capaces de acumular más poder o riquezas.

En ese orden de ideas, organismos como Transparencia Internacional (2022, pp. 4, 7-11 y 15) han sistematizado en parte la problemática, donde “ejemplos clave de cómo la IA podría usarse de manera corrupta [es] a lo largo de las dimensiones de diseño, manipulación y aplicación de la IA”; por ejemplo, cuando una IA corrupta se crea para la manipulación o captura de algoritmos de los sistemas de IA existentes en atenciones médicas (detección de enfermedades y pagos de seguros), que explotan sus vulnerabilidades y que ya son beneficiosos. Ese organismo define a la IA corrupta como el “Abuso de los sistemas de IA por parte de los titulares del poder (confiados) para su beneficio privado”; siendo que “La IA en manos de los poderosos solo aumenta esta tendencia”; además, se documenta el caso que “los políticos y otros titulares del poder se apropiaron indebidamente de los sistemas de IA existentes para solidificar o expandir su poder vigilando, amenazando e intimidando a rivales políticos o comerciales”, donde la responsabilidad se difumina o se desvía ya no a otro humano culpable, sino a los sistemas de IA, en apariencia defectuosos, que todavía no pueden contradecir una acusación, negando así su participación el corrupto.

Siendo relevante anotar que Transparencia Internacional (2022, pp. 7-11 y 15) advierte que “El uso de la IA para participar en la corrupción también aumenta la distancia psicológica de las víctimas. Las víctimas de la corrupción ya suelen ser vagas y distantes”. En ese sentido, a partir del análisis de expertos menciona que “El impacto de la IA en las sociedades de todo el mundo continúa creciendo, mientras que las crecientes capacidades de la IA cambian las estructuras de poder existentes. En una era digital, el poder reside en aquellos que tienen el código y los algoritmos, actualmente en su mayoría grandes empresas de tecnología y gobiernos”; por ende, “destaca que pueden hacerlo diseñando, manipulando o aplicando sistemas de IA”. Es decir, todo ello implica de cómo los titulares del poder y élites tecnológicas usan la IA, para el bien o para el mal.

Por ende, es un riesgo potencial imparable que dicha IA vaya camino al autoaprendizaje veloz de la mano con expertos deshonestos y su tendencia hacia la manipulación, captura y aplicación de algoritmos sesgados, para incursionar, encriptar y puedan romper todo tipo de barreras o claves de manera ilícita, incluso en servicios con IA beneficiosos; donde los “algoritmos fuente corruptos” están dotados de opacidad por su complejidad y falta de transparencia, dirigidos sobre todo para transacciones corruptas ingentes para que se saque el mayor provecho económico posible y no puedan detectarse, donde hasta ahora se justifican mediante la custodia de patentes, cuando son verdaderas cajas negras (Serrano, 2022); donde no se regula o no se exige su transparencia.

2.2. Detección de psicópatas funcionales amorales: la máquina humana deseosa de poder, éxito y dinero, en la confluencia con el uso corrupto de la IA

El avance tecnológico contemporáneo, impulsado por la competitividad sin límites, genera un cambio profundo en la mente y la conducta humana; pues la globalización, los negocios a gran escala, el éxito profesional y el liderazgo, hace que las pulsaciones electroquímicas repetitivas, cada vez más detecten el deseo de poder, éxito y dinero, no en bienestar general, sino particular, donde tal aprehensión evoluciona a la propensión hacia el mal, y las redes neuronales generan conexiones y funciones más inteligentes que se graban en la mente y en los genes. Así, tenemos a seres deseosos de pasar, de la serenidad, a la frialdad; del respeto al logro, por la competencia sana, hacia el salto por el mérito calculado y comprado; de abrazar el triunfo y el reconocimiento, por el esfuerzo, a la arrogancia y desprecio de los menos favorecidos (Sandel, 2023). Algunas de las características que se destaca en estos sujetos son las siguientes:

Patrones o características conductuales del psicópata funcional amoral

1

No les importa a quienes dañan con el poder

2

No les importa como obtienen el poder (lo hacen a cualquier precio)

3

No tienen remordimientos

4

Carecen de empatía con el resto

5

Instrumentalizan a las personas o cosas (subordinados)

6

Difíciles de detectar (se han integrado y son engañosos)

7

Andan a sus anchas en terrenos como la política, la justicia y la economía

8

Son tan manipuladores, insensibles y egocéntricos

9

No tiene miedo de tomar decisiones duras

10

Conducta arriesgada

11

Arrogantes

12

Capacidad de mentir: cínicos

13

Extrema frialdad cuando trabajan bajo presión

14

Pensamiento estratégico

15

Se confunden con cualidades de liderazgo

16

Ausencia de preocupación por las consecuencias de sus actos

17

Narcisista

Fuente: Sobre la base de Velasco (2021)

Con estas características se describe a los sujetos que son los llamados psicópatas funcionales (integrados o subclínicos) o psicópatas corporativos, “fenómeno contemporáneo que se originó en los noventa ante la creciente inestabilidad y competitividad que surgió en diferentes ámbitos profesionales, sobre todo en los negocios (…) comportamiento desviado en el lugar de trabajo”, “Tienen claros sus objetivos: obtener dinero, poder y prestigio” (Velasco, 2021, pp. 147-165); que no hieren o matan directamente, pero si generan zozobra y violencia indirecta, por “falta de protección contra la pobreza, el hambre, o las enfermedades; o cuando se provocan modificaciones dañinas del medio ambiente” (Lucini, 2004, p. 17).

Estos seres al ocupar cargos o tener poder, apoyados por su entorno, muchas veces se predisponen al deseo agrandado del poder, éxito y dinero, más allá de desinhibirse al ejercicio abusivo del poder, son personas que tienen disminuida su aversión al riesgo y a la empatía, por ende son propensos al ejercicio del poder de manera corrupta. Así tenemos “tres teorías más habituales que explican la influencia corruptiva del poder”: la situacional (condiciones, circunstancias y contexto para que se produzca el abuso de poder), la disposicional (rasgos, características y patrones conductuales determinan la tendencia o la probabilidad de que se abuse del poder) y la psicosocial (los efectos cognitivos y afectivos que se da a partir de tener mucho poder, como los roles de rango alto, hace que cambie una persona[5]) (Diamond, 2022, pp. 42 y ss.). Donde la teoría disposicional (propensión) explicaría mejor la predisposición de sujetos psicopáticos en los entornos de poder para ejercerla de manera corrupta, al ser lugares propicios y donde les hace sentirse y andar como un pez en el agua.

Esta función humana desviada hacia el mal, en estos tiempos contemporáneos, confluye con el desarrollo de las TIC y la IA, que, bajo la mano de estas personas con características psicopáticas, hace que se instrumentalicen dichas tecnologías para potenciar y satisfacer el deseo y disfrute perverso de tales sujetos, desde los centros de poder, a cargo de sus titulares o élites tecnológicas; que luego de haberse preprogramado algoritmos sesgados y direccionados, pulsen las teclas adecuadas, de manera que ya no necesitan de otras personas (operadores) o testigos, al poseer y complementarse con una IA corrupta.

3. Determinación de la realidad internacional sobre la IA y la realidad de las fiscalías anticorrupción a nivel nacional y la Policía Nacional del Perú

La evidencia más documentada del uso indebido de IA, en su análisis a nivel internacional, se da a partir de la publicación de la Recomendación sobre la ética de la inteligencia artificial, de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco, 2022), desde su enfoque igualitario, transparente (“que puede reducir la corrupción y la discriminación, y también puede ayudar a detectar y prevenir los efectos negativos sobre los derechos humanos”), pasando por el control o supervisión de los agentes públicos y élites tecnológicas comprometidas, así como de las acciones que deben adoptar los Estados.

Transparencia Internacional (2022), a su turno, no se ha quedado atrás y ha publicado un estudio semiestructurado (apoyado en la labor “con expertos en ciencia de datos, investigación de la corrupción, ética de la IA y formulación de políticas de los sectores público y privado”) para determinar “Los riesgos de corrupción de la inteligencia artificial”, donde destaca que los poderosos “pueden hacerlo diseñando, manipulando o aplicando sistemas de IA”, para así añadir que “hacer que los sistemas de IA sean más resistentes contra los riesgos de corrupción requiere salvaguardias novedosas”.

En nuestro ámbito, la Fiscalía Superior Coordinadora Nacional de las Fiscalías Especializadas en Delitos de Corrupción de Funcionarios (2023) dio cuenta de problemas de atención de los servicios periciales de manera reiterativa, a partir de haberse identificado que a nivel de la empleabilidad o contratación de profesionales diversos, falta personal técnico en cantidad y calidad; y, a pesar del tiempo transcurrido, informa que “no se cuenta con lineamientos establecidos, situación que ha originado retraso en la atención de los mismos”, originado –en parte– ante la problemática de la desactivación y reactivación de la Gerencia de Peritajes del Ministerio Público en los años 2022-2023, que habría retardado miles de pericias encomendadas a nivel nacional. Retraso y sobrecarga que también lo informó (2023) el Departamento de Análisis y Coordinación a Nivel Nacional (DEPACNN), de la División de Investigación de Delitos de Alta Tecnología (Divindat), de la PNP. Hechos que develan la falta de atención en la mejora, renovación y potenciación de la infraestructura tecnológica de los órganos técnicos de persecución penal, además de su acreditación y contratación de expertos en inteligencia artificial (IA).

4. Formas de uso corrupto de IA, los órganos de persecución penal especializados y uso de técnicas especiales de investigación: artículos 207, 341 y 341-A del Código Procesal Penal

Ante esta realidad problemática, es exigencia de la Administración Pública, a través de sus órganos de persecución penal especializados y a la par del avance de IA corrupta, se realicen investigaciones forenses con visión tecnocientífica del siglo XXI, apoyado con IA, tecnología convergente o ingeniería inversa, que pueda detectar patrones o algoritmos corruptos muy sofisticados que incrementan o potencian aún más las nuevas formas de corrupción. Así, los diferentes estamentos del Estado ya cuentan con oficinas gestoras de redes sociales, dedicados a la social media o medios sociales, a fin de compartir datos, colaborar y co producir contenidos (Mesa, 2015), los cuales logran la “comunicación rápida, multidireccional y cercana, en beneficio de la población”, a través de Facebook, Twitter, Instagram y YouTube (PCM, 2019, pp. 8 y ss.); por ende, “son instrumentos para la transparencia de la información, la rendición de cuentas y la participación ciudadana, pues son foros digitales que son de utilidad para que la Administración Pública pueda conocer la opinión de la población, lo cual le permitirá conocer si las medidas adoptadas tienen aceptación, si requieren de mejoras o si corresponde su eliminación debido al rechazo de la ciudadanía” (Otero, 2020, p. 27).

Estas acciones requieren ser reguladas y controladas, toda vez que pueden ser mal utilizados en beneficio político (uso de recursos tecnológicos), como el caso reportado en Estados Unidos en las elecciones de Donald Trump, donde “En tan solo 24 horas, el valor de Facebook cayó US$ 37.000 millones por un escándalo que comenzó con un aparentemente inocente test de personalidad en la red social y derivó en acusaciones de robo de datos, interferencia política y chantajes con prostitutas”, empresa que también operaba en Latinoamérica (Argentina, Brasil, Colombia y México) (BBC News Mundo, 2018). Así, la IA genera una serie de riesgos al ser modelos “extremadamente opacas en cuanto a la comprensión sobre cómo toman las decisiones”, denominada black- box (caja negra) (Serrano, 2022, pp. 215-216). Además, hay que considerar que se pueden usar IA, chatGPT o técnicas como la esteganografía para ocultar o encriptar información sobre intercambios corruptos. Siendo así, se avizora diversas formas del uso corrupto de la IA que lo detallamos a continuación:

Formas de uso corrupto de la inteligencia artificial (IA)

1

IA para incursionar, espiar e ingresar a servidores públicos con IA beneficioso, para romper barreras, que, en contubernio o soborno a los agentes públicos expertos (para que les alcancen las claves, flexibilicen los controles informáticos o no realicen acción alguna), se facilita la extracción de data confidencial, sobre procesos de contratación reservados y otros, para direccionar resultados o hacer ingresar IA preprogramadas para acciones corruptas, a favor de empresas tecnológicas privadas o intereses particulares.

2

Se crean algoritmos sesgados, manipulados y opacos, custodiados y no transparentados bajo pretexto de patentes o licencias, que no tienen regulación y control de su uso, o en algunos casos se desregula para dejar pasarlos y evitar los controles legales, así favorecer que se enriquezcan las élites tecnológicas. Por ejemplo, falta de control en el negocio de los datos masivos de todos los ciudadanos, accedido desde dentro o fuera de la big data de la Administración Pública; o la creación de cláusulas contractuales ventajosas a favor de élites tecnológicas, que se puede replicar de manera masiva y poco comprensible.

3

Se confunde el verdadero uso corrupto de IA, en perjuicio de la Administración Pública, al aparentar acciones de ciberataques o hackeos, cuando corresponde a una distracción, coartada, incursión y acciones encubiertas o disfrazadas, realizadas entre las élites tecnológicas y los titulares del poder público, donde los modelos de la IA no pueden ser fiscalizados mediante el uso de ingeniería inversa para detectar dichas anomalías, bajo pretexto de no develarse las patentes o licencias, cuando son verdaderas cajas negras que operan y extraen información desde el centro de la big data de la Administración Pública.

4

Ciertos oficiales de seguridad del gobierno electrónico y la Oficina General de Tecnología de la Información (OGTI) de los diferentes estamentos del Estado, operan con demasiada libertad y poco control en la adquisición, implementación, adopción y renovación de la infraestructura tecnológica, debido a la poca comprensión de la Oficina de Control Institucional (OCI) u otras autoridades, sobre las TIC y la IA pública, donde dichos expertos no rinden cuenta o lo hacen de manera genérica. Así, estos agentes son tentados por las élites tecnológicas o reciben órdenes de los titulares del poder público, ya que, según la Ley de Contrataciones del Estado, por su especialidad, elaboran los términos de referencia o especificaciones técnicas, así como dan la conformidad técnica en la adquisición, implementación, adopción y renovación tecnológica (hardware y software).

5

Uso de IA para ocultar, disfrazar o encriptar tratativas o acciones corruptas, con el uso de técnicas de esteganografía, chatbot o chatGPT. Por ejemplo, encriptar las solicitudes ilegales o los acuerdos defraudatorios, mediante el uso de signos matemáticos, codinomes e imágenes distorsionadas para disfrazar de donde salen los recursos, los montos de las coimas o sobornos, ocultar a sus beneficiarios, o la ubicación de los medios corruptores, activos económicos o favores de distinta índole, así como confundir el momento de su entrega, en interés político o privado.

6

Uso de recursos tecnológicos estatales o IA (bots, chats, etc.) en las redes sociales, como Facebook, Twitter, Instagram, YouTube y otros, para influir, manipular y direccionar de forma sofisticada y masiva en elecciones, polarizar la opinión pública o generar noticias falsas en contra de opositores o para limpiar o levantar la imagen de las autoridades, para lograr el poder o mantener el statu quo.

7

En los órganos de persecución penal, a pesar de no tener expertos en IA, los pocos técnicos o peritos informáticos o electrónicos, que laboran en condiciones desequilibradas, son propensos o están tentados al ofrecimiento de favores o sobornos por las élites tecnológicas, para direccionar o manipular los resultados periciales; donde los que dirigen la investigación no conocen o comprenden de su operatividad debido a la alta complejidad de los algoritmos y la percepción de ingente información opaca y poco tratable, que dejan en manos de los técnicos o peritos, a su libre albedrío, el análisis digital forense de inicio a fin, hasta en la determinación del objeto pericial.

Por lo que los órganos de persecución penal, competentes para ver los delitos dentro de los alcances de los artículos 382 al 400 del Código Penal peruano, bajo la luz de la teoría de los delitos de infracción de deber, y delitos conexos, deben aplicar los artículos 207 (presupuestos y ejecución de la videovigilancia para casos graves como corrupción), 341 (agente encubierto: un efectivo de la PNP; y agente especial: sujeto dentro de los centros de poder corruptos) y 341-A (operaciones encubiertas para identificar a personas naturales o jurídicas) del Código Procesal Penal, para detectar a personas deseosas de poder, éxito y dinero con características psicopáticas, que no tienen empatía y son amorales, que operan desde la Administración Pública y con los grandes centros de poder tecnológicos, donde instrumentalizan la big data e IA, en beneficio privado.

Los encargados de investigar estos casos deben ser entendidos o capacitados en el uso de las TIC e IA. Esto, porque se destaca que sin la gestión de casos en secreto, para un mejor aprovechamiento y eficacia de la investigación, ante sujetos muy preparados, bien relacionados y con mucho poder y recursos, que también usan de la tecnología más sofisticada, es necesario incursionar con personal (policial y fiscal) y métodos de investigación especiales altamente preparados, sofisticados y secretos, de cuyo resultado se debe dar cuenta al final a todas las partes interesadas del proceso penal, como garantía de objetividad, neutralidad, eficacia, integridad, ética y transparencia. Así también, es vital que dichos órganos de persecución penal (policías y fiscales), además de ser capacitados, sean operadores con ética y moralmente equilibrados y no propensos a ser tentados por el poder o direccionar las investigaciones para favorecer a gobiernos o políticas de turno, que sirvan para mantener el statu quo o sean una parte interesada en la pugna por alcanzar el poder, donde se preocupen de evidenciar los actos corruptos de los grupos opositores.

Además de dichas herramientas legales procesales, se necesita de infraestructura forense y expertos en IA, dentro de los departamentos u oficinas de criminalística o peritajes de la PNP o el Ministerio Público, para afrontar la potenciación de la automatización de la corrupción, que gestiona algoritmos sesgados para –desde dentro o fuera– manipular, direccionar o capturar algoritmos fuente beneficiosos de la administración pública, o aplicar algoritmos para incursionar, encriptar o disfrazar la corrupción.

5. Discusión y nuestra posición

En los centros de poder circulan sujetos con una escala de maldad que los hace tan peligrosos, en perjuicio de la sociedad. Para obtener cosas lo pueden hacer de manera violenta o saltando los procesos por actos corruptos, esto a fin de evitar las apariencias y porque supuestamente serían menos inofensivos. Siendo que usarán los elementos o medios que dispone la tecnología, que se dan de las fronteras o de la superposición del cibercrimen, el objeto principal es conseguir, mantener y usar el poder desde la infracción de los deberes públicos y de la Administración Pública, en provecho e interés privado, por lo que deben ser tratados como actos de corrupción modernos.

En el contexto del avance imparable de las TIC e IA, su uso indebido, por parte de los titulares del poder o élites tecnológicas, se incrementará o potenciará la automatización de la corrupción, abusiva y masiva, en interés privado. Esto obliga a que se controlen esos actos con los mismos mecanismos tecnológicos, ya sea desde el mismo poder público, con el desarrollo o avance ético de IA pública, uso de ingeniería inversa donde las TIC o IA sean cuestionadas o verdaderas cajas negras, a fin de garantizar la gratuidad de algunos servicios públicos; tener costos y pagos adecuados; así como el correcto manejo de la administración y los recursos públicos.

III. CONCLUSIONES Y RECOMENDACIONES

1. Conclusiones

Se analiza una visión nueva del crimen, como la automatización de la corrupción, que se aprovecha del registro de información grande o big data que se usa para los procesos de la IA privada o pública, donde no todo es de carácter beneficioso, sino que los patrones o algoritmos son direccionados por la conducta humana corrupta, bajo diversas formas del uso de IA indebido.

La dependencia tecnológica abismal del Estado peruano de empresas privadas nacionales y transnacionales, trae el riesgo de su uso indebido de las TIC e IA para actos corruptos por parte de los que ostenta el poder o élites tecnológicas, en perjuicio de la Administración Pública. Así, por el momento, la IA no es el objeto principal que cuestionar, sino la perspectiva y los conjuntos de valores humanos con los que se emplea la IA, sin control ético. Pero un peligro real es la existencia de psicópatas funcionales amorales que operan y confluyen con el avance de las TIC y la IA, para su uso corrupto.

Una IA beneficiosa puede usarse para combatir el uso corrupto de IA, para tener un impacto positivo en la prevención y detección de la corrupción; dependiendo del diseño, la implementación y el uso que se le dé, como el análisis de grandes volúmenes de datos, más rápidos y profundos para identificar patrones o algoritmos anómalos o sospechosos.

Existen problemas locales por resolver, como la falta de infraestructura forense acreditada y expertos en IA, mientras surge el fenómeno de la automatización de la corrupción desde las fronteras o en la superposición con el cibercrimen (delito medio), pero diferenciada cuando vulnera la correcta administración y los recursos estatales (como delito fin).

2. Recomendaciones

Sobre la base de datos inmensos, de los casos fiscales y judiciales sobre corrupción (pequeña, mediana y grande), así como de la identificación de patrones comunes: big data para procesarla a favor de la IA, se deben elaborar modelos matemáticos, estadísticos y algoritmos, donde se tengan mapas o la identificación de espacios, que nos lleven de puntos grandes o generales a lo más específico, esto es, desde la identificación de espacios, centros de poder y distintos organismos del Estado, donde categóricamente se determine el mayor uso de recursos del Estado en el proceso de adquisición, implementación o renovación tecnológica de su infraestructura, así como la mayor propensión a la actuación corrupta; así llegar a determinar los puestos o cargos de poder donde se toman esas decisiones, hasta establecer de manera específica si los agentes públicos que los ocupan tienen o no características psicopáticas funcionales amorales, deseosas de poder, éxito y dinero a cualquier precio. Esto debe empezar por incluir a la determinación de la existencia o no, en los órganos de persecución penal o sus agentes, de dichos patrones, e impedir la corrupción desde ese ámbito.

Ante la automatización de la corrupción, más que la búsqueda práctica, mediante palabras o nombres claves, que denoten conductas corruptas, ante cualquier evidencia digital, se debe alimentar a una IA pública con información que se haya identificado de los últimos casos, como:

1

Patrones de conducta corrupta, diferenciada entre pobres, progresistas, ricos y superricos; así como de personas de la generación pasada y la generación del milenio (familiarizados con las TIC e IA).

2

Patrones de conducta de élites tecnológicas (bien relacionadas, con poder económico e influencia), de los funcionarios públicos, de los progresistas o intermediarios (diseñadores o programadores).

3

Lexicografía, lenguaje, palabras, frases, codinomes, etc., que en el fondo encriptan o disfrazan formas de corrupción o a los beneficiarios.

4

Contratos con cláusulas ventajosas, desde los más simples a los más complejos, que pasan desapercibidos cuando son masivos y rápidos.

Crear una base de datos y algoritmos para operativizar una IA pública que aprenda de nuestra propia realidad local e internacional, corruptas, para que a través de sus procesos o combinaciones posibles puedan generar búsquedas más rápidas, masivas y profundas, en casos en trámite y poder predecir futuras formas de corrupción ante avances de las TIC.

Reducir la discrecionalidad en la creación de IA ilimitada, con transparencia y monitoreo, más aún en la administración y manejo de recursos públicos; se permita el uso de asistentes virtuales, chatbots o chatGPT que brinden información y orientación a los ciudadanos.

REFERENCIAS

Artículo: Inteligencia artificial (2023).Wikipedia. https://es.wikipedia.org/wiki/Inteligencia_artificial.

BBC News Mundo (2018). 5 claves para entender el escándalo de Cambridge Analytica que hizo que Facebook perdiera US$ 37.000 millones en un día (21 de marzo de 2018). https://www.bbc.com/mundo/noticias-43472797.

BBC News Mundo (2023). Las 3 etapas de la IA, en cuál estamos y por qué muchos piensan que la tercera puede ser fatal [Archivo de Vídeo]. Youtube: https://www.youtube.com/watch?v=MgWtYXcUg9Y.

BBVA. Aprendamos juntos 2030 (2023). Versión Completa. La historia de los imparables. Yuval Noah Harari, historiador y escritor [Archivo de Vídeo]. Youtube: https://www.youtube.com/watch?v=_TbJU3MgA_E&t=7s.

Dawkins, R. (1976). El gen egoísta. Blog Oficial del Colegio Oficial de Biólogos de la Comunidad de Madrid (7 de agosto de 2019). https://cobcm.net/blogcobcm/2019/08/07/la-teoria-del-gen-egoista-unarevolusion-en-la-evolucion/.

Diamond, J. (2022). El poder. Una guía de uso (título original: Power: A User’s Guide, 2016). Madrid, España: Turner Publicaciones SL.

Durand, F. (2018). Odebrecht. La empresa que capturaba gobiernos. Lima: Fondo Editorial de la Pontificia Universidad Católica del Perú.

Gallego, J. (2021). Banco de Desarrollo de América Latina y el Caribe - CAF ¿Cómo puede la inteligencia artificial ayudar en la lucha contra la corrupción? https://www.caf.com/es/conocimiento/visiones/2021/09/como-la-inteligencia- artificial-puede-ayudar-en-la-lucha-contra-la-corrupcion/.

Gawdat, M. (2021). Scary Smart. The Future of Artificial Intelligence and How You Can Save Our World (“Miedo inteligente. El futuro de la inteligencia artificial y cómo puedes salvar nuestro mundo”). Inglaterra: Pan Macmillan. https://www.panmacmillan.com/authors/mo-gawdat/scary-smart/9781529077636 y https://www.crisol.com.pe/libro-scary-smart-9781529077629

González Lucini, F. (2004). Hablamos de paz. Madrid: Editorial Luis Vives.

Harari, Y. (2014). Sapiens. De animales a dioses. Breve historia de la humanidad. 1ª ed. en Debolsillo 2022, Barcelona, España: Penguin Random House Grupo Editorial.

Harari, Y. (2016). Homo Deus. Breve historia del mañana. 1ª ed. en Debolsillo 2022, Barcelona, España: Penguin Random House Grupo Editorial.

Harari, Y. (2018). 21 lecciones para el siglo XXI. 1ª ed. en Debolsillo 2022, Barcelona, España: Penguin Random House Grupo Editorial.

Informe N° 000004-2023-MP-FN-FSNCEDCF (31 de mayo de 2023). Fiscalía Superior Coordinadora Nacional de las Fiscalías Especializadas en Delitos de Corrupción de Funcionarios. Lima, Perú.

Informe Técnico N° 1108-2023-DIRINCRI PNP/DIVINDAT-DEPACNN (17 de noviembre de 2023). Departamento de Análisis y Coordinación a Nivel Nacional (DEPACNN) de la División de Investigación de Delitos de Alta Tecnología (Divindat). Lima, Perú.

Mesa, C. (2015). Gestión de las redes sociales en la administración pública del Perú: espacio de innovación para una mejor relación Estado-ciudadano. [Archivo PDF]. https://www2.congreso.gob.pe/sicr/cendocbib/con4_uibd.nsf/8206FC3A85B5C5 AE05257F5C00743314/$FILE/mestor.pdf.

Neoris AI (2023). Welcome to the AI Era! Welcome to accelerated intelligence! Enrique Perezyera. Presidente NEORIS México. En los próximos años, el 10 % del PBI del planeta se invertirá en tecnología. [Archivo de Vídeo]. Youtube: https://www.youtube.be/gT6SwqSXeow y desde https://neoris.com/es/neoris-ai.

Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura [Unesco] (2022). Recomendación sobre la ética de la inteligencia artificial. Adoptada el 23 de noviembre de 2021 [Archivo PDF]. https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa.

Otero, J. (2020). Regulación del Uso de las Redes Sociales en la Administración Pública. Trabajo Académico para optar por el título de Segunda Especialidad en Derecho Público y Buen Gobierno en la PUCP. Lima, Perú. [Archivo PDF]. https://tesis.pucp.edu.pe/repositorio/bitstream/handle/20.500.12404/19121/OTER O_VALENCIA_JACKELINE_PAOLA%20%282%29.pdf?sequence=1&isAllow ed=y.

Parada, R. y Errecaborde, J. (2018), compiladores. Cibercrimen y delitos informáticos: los nuevos tipos penales en la era de internet. Buenos Aires: Erreius.

Presidencia del Consejo de Ministros. Secretaría de Comunicación Social. (2019). Manual de estilo de redes sociales del Poder Ejecutivo. Lima, Perú. [Archivo PDF]. https://cdn.www.gob.pe/uploads/document/file/425124/Manual_de_estilo_de_red es_sociales_del_Poder_Ejecutivo.pdf.

Salinas Siccha, R. (2021). Autoría y participación en los delitos de corrupción de funcionarios. 1ª ed. Lima, Perú: Palestra Editores.

Sandel, M. (2023). La tiranía del mérito. ¿Qué ha sido del bien común? 1ª ed., en Debolsillo 2023, Barcelona, España: Penguin Random House Grupo Editorial.

Serrano Acitores, A. (2022). Metaverso y Derecho. Madrid, España: Editorial Tecnos. Tegmark, M. (2017). Vida 3.0: Ser humano en la era de la inteligencia artificial. En Wikipedia (2023). https://es.wikipedia.org/wiki/Vida_3.0.

Tegmark, M. (2017). Vida 3.0: Ser humano en la era de la inteligencia artificial. En Wikipedia (2023). https://es.wikipedia.org/wiki/Vida_3.0.

Tovar, A. (2023) [Wired en español]. La inteligencia artificial que lucha contra la corrupción y que podría escandalizar a los políticos. Revista estadounidense y de propiedad de la editorial Condé Nast Publications. San Francisco, California. https://es.wired.com/articulos/la-inteligencia-artificial-que-lucha-contra-la- corrupcion-y-que-podria-escandalizar-a-los-politicos.

Transparency International (2022). The corruption risks of artificial intelligence (Los riesgos de corrupción de la inteligencia artificial) [Archivo PDF]. https://knowledgehub.transparency.org/assets/uploads/kproducts/The-Corruption- Risks-of-Artificial-Intelligence.pdf.

Velasco de la Fuente, P. (2021). Homo criminalis. El crimen a un clic: los nuevos riesgos de la sociedad actual. 1ª ed., Barcelona, España: Editorial Ariel de Planeta.

__________________

* Fiscal anticorrupción de Lima Centro.



[1] Parecido a la corrupción de la empresa brasileña Odebrecht, que usó codinomes para ocultar los sobornos y a sus beneficiaros (Durand, 2018).

[2] Machine learning: “es una rama de la inteligencia artificial que le entrena a una máquina a cómo aprender, esta se encarga de ver patrones y data para llegar a una conclusión por sí sola” (Wikipedia, 2023).

[3] Laboró como director de negocios en Google [X], tiene experiencia en programación y conocimientos en neurociencia.

[4] Versión completa. La historia de los imparables. Yuval Noah Harari, historiador y escritor. Ver en https://www.youtube.com/watch?v=_TbJU3MgA_E&t=7s.

[5] “Los estudios psicosociales indican que es el rol, y no la personalidad, lo que comporta los rasgos que asociamos con el mal liderazgo” (Diamond, 2022, p. 43).


Gaceta Jurídica- Servicio Integral de Información Jurídica
Contáctenos en: informatica@gacetajuridica.com.pe