Actualizado: Marzo 2024

Marzo 2 / 2024 13:00 hrs

 

Elon Musk demanda a OpenAI.

 

 

La compañía que vio la luz en 2015 de la mano de Sam Altman (actual CEO), Elon Musk (quien ya no forma parte), entre otros se ha caracterizado por sus tecnologias innovadoras tales como ChatGPT, DALL-E, Whisper. Empezó como una organización sin ánimo de lucro. Su objetivo, era "hacer avanzar la inteligencia digital de la manera que sea más probable que beneficie a la humanidad en su conjunto" según se apuntaba en su web.

 

Pero tiempo despues, las cosas han cambiado, dicho esto por Elon Musk, tanto que ha decidido denunciarla así como a Sam Altman.

 

Leer más.

 

 

 

Febrero 14 / 2024 18:00 hrs

Microsoft y Open AI informan que varios grupos de ciberdelincuentes están utilizando IA para lanzar ciberataques.

 

En un reciente reporte del gigante de Redmon en colaboración con OpenAI, se informa que fueron interrumpidos ataques realizados por varios actores afiliados al estado que utilizaron sus servicios de inteligencia artificial (IA) para realizar actividades cibernéticas maliciosas.

 

"El soporte lingüístico es una de las característica naturales de los LLM y resulta atractivo para los actores de amenazas que se centran continuamente en la ingeniería social y otras técnicas que se basan en comunicaciones falsas y engañosas adaptadas a los trabajos, redes profesionales y otras relaciones de sus objetivos", dijo Microsoft en un informe compartido con The Hacker News.

 

Por su parte OpenIA menciono: "Estos actores generalmente buscaban utilizar los servicios de OpenAI para consultar información de código abierto, traducir, encontrar errores de código y ejecutar tareas básicas de codificación".

 

Dentro de los grupos de amenazas identificados en este tipo de prácticas estan:

 

Emerald Sleet (también conocido como Kimusky), un actor de amenazas norcoreano, que ha utilizado LLM para identificar expertos, grupos de expertos y organizaciones centradas en cuestiones de defensa en la región de Asia y el Pacífico, comprender fallas disponibles públicamente, ayudar con tareas básicas de programación y redactar contenido. que podría utilizarse en campañas de phishing.

 

Crimson Sandstorm (también conocido como Imperial Kitten), un grupo de amenazas iraní que ha utilizado LLM para crear fragmentos de código relacionados con aplicaciones y desarrollo web, generar correos electrónicos de phishing e investigar formas comunes en que el malware podría evadir la detección.

 

Salmon Typhoon (también conocido como Maverick Panda), un grupo de amenazas chino que utilizó LLM para traducir documentos técnicos, recuperar información disponible públicamente sobre múltiples agencias de inteligencia y actores de amenazas regionales, resolver errores de codificación y encontrar tácticas de ocultación para evadir la detección.

 

Charcoal Typhoon (también conocido como Aquatic Panda), un grupo de amenazas chino que ha utilizado LLM para investigar varias empresas y vulnerabilidades, generar scripts, crear contenido que pueda usarse en campañas de phishing e identificar técnicas para el comportamiento posterior al compromiso.

 

 

Microsoft menciono que está formulando un conjunto de principios para mitigar los riesgos planteados por el uso malicioso de herramientas de inteligencia artificial, así como amenazas persistentes avanzadas (APT), manipuladores persistentes avanzados (APM) y grupos cibercriminales de los estados nacionales; el propósito es elevar barreras de seguridad efectivas.

 

 

Por su parte aunque OpenAI logró detener eficazmente estos sucesos, reconoció el reto que supone evitar el uso malintencionado de sus desarrollos.

 

 

 

Enero 10 / 2024 08:00 hrs

Borrador de Ley Federal de Gestión de Riesgos de Inteligencia Artificial en EEUU.

 

 

EEUU presentó el borrador de su Ley Federal de Gestión de Riesgos de Inteligencia Artificial.

 

Esta ley introduce un marco integral que busca garantizar prácticas responsables y seguras de IA en todas las agencias federales.

 

Algunas disposiciones importantes incluidas:

 

1. Uso obligatorio del marco de gestión de Riesgos de IA: Ahora, las agencias federales están obligadas a adoptar el Marco de Gestión de Riesgos de Inteligencia Artificial desarrollado por el Instituto Nacional de Estándares y Tecnología (NIST). Este paso crucial asegura un enfoque estandarizado para la implementación de la IA.

 

2. Definiciones y alcance: La ley define meticulosamente términos clave como "Administrador", "agencia", "inteligencia artificial", entre otros, proporcionando claridad sobre el alcance y la aplicación de la ley.

 

3. Requisitos adicionales para Agencias: Además del marco, las agencias deben cumplir con acciones específicas alineadas con el marco en sus contratos de adquisición de IA. Esto incluye proporcionar acceso a datos, modelos y parámetros para pruebas y evaluaciones.

 

4. Pruebas y evaluación de la IA: Un aspecto vital de la ley es el mandato de un estudio por parte del Director del NIST para revisar normas existentes y futuras para la prueba, evaluación, verificación y validación de adquisiciones de IA.

 

5. Regulaciones de adquisición: El Consejo Regulador de Adquisiciones Federales tiene la tarea de promulgar regulaciones para la adquisición de productos, servicios, herramientas y sistemas de IA, haciendo hincapié en el cumplimiento basado en riesgos con el marco.

 

6. Iniciativa de trabajo en inteligencia artificial: La ley va más allá de las regulaciones al exigir el establecimiento de una iniciativa para proporcionar experiencia en IA a las agencias. Esto incluye la contratación de expertos interdisciplinares para ayudar en el desarrollo, adquisición, uso y evaluación de herramientas de IA.

 

Estas disposiciones tienen como objetivo garantizar el uso responsable y seguro de la Inteligencia artificial.

 

Beneficios esperados de implementar esta ley:

 

1. Mejora en la gestión de riesgos: Utilizar el marco del NIST permitirá a las agencias federales gestionar de manera efectiva los riesgos asociados con la IA, garantizando una implementación responsable y segura.

 

2. Estandarización: La ley exige el desarrollo de normas, prácticas y herramientas consistentes con el marco, fomentando la estandarización en el uso de la inteligencia artificial en las agencias federales.

 

3. Transparencia: Las agencias ahora deben cumplir con políticas que rigen el uso de la IA, mejorando la transparencia y la rendición de cuentas en la implementación de tecnologías de IA.

 

 

 

 

 

Enero 24 / 2023 08:00 hrs

Audifarma víctima de ataque informático.

 

La compañía dedicada a la entrega de medicamentos a más de 10 millones de usuarios de las EPS, informo a traves de un comunicado: “Fuimos objeto de un ataque informático externo en nuestra infraestructura tecnológica. Tan pronto lo identificamos, activamos nuestros protocolos de seguridad informática dispuestos para este tipo de casos”

 

La materialización del ataque ocasionó la falla en algunas de sus plataformas de internet así como de su app móvil. Sin embargo afirman desde la compañía que sus servicios digitales fueron temporalmente deshabilitados, pero la entrega de medicamentos sigue operando con normalidad, por lo que hicieron un llamado a la tranquilidad de sus usuarios afirmando: "para la tranquilidad de todos contamos con todos los mecanismos de seguridad y respaldo que nos permiten salvaguardar la integridad de la información".


Finalmante, Audifarma instaló una mesa de trabajo técnica con el Ministerio de las TIC para resolver el evento de ciberseguridad de la compañia.

 

 

 

Enero 23 / 2023 08:00 hrs

Ciberataque a Keralty: El grupo llamado RansomHouse publico datos privados de Sanitas.

 

Keralty que volvió a ser noticia, los atacantes publicaron una lista con los datos personales de sus pacientes, empleados y proveedores; además de información de estados financieros, como forma de presión ante la extorsión que sufre la EPS.

 

Sergio Martínez, CEO global de Keralty se pronuncio en una rueda de prensa y emitio un comunicado en el que, entre otras informaciones, manifesto: "Podemos confirmarles que Ransom House se ha atribuido este ataque y que ha manifestado tener en su poder 0,7 teras de información institucional de Keralty, de los cuales han compartido 13 archivos que contienen información de estados financieros, balances, presupuestos e información personal”.

 

Dentro del comunicado tambien se manifiesta: “Cada paso que estamos dando está siendo lento porque es con auditoria forense y legal; si restauramos lo mismo que teníamos, seguimos vulnerables, estamos trabajando en un sistema nuevo”.

 

El ataque a Sanitas ha imposibilitado el ingreso a los servicios web para pedir citas así como medicamentos, lo que ha generado congestión y atrasos en las sedes físicas.

 

De acuerdo a Ransomhouse, la información obtenida de la compañía es aproximadamente de tres (3)teras,

 

 

 

Enero 15 / 2023 23:00 hrs

Bill Gates le apuesta a la IA.

 

 

Bill Gates, ex Ceo de Microsoft parece no tener dudas al respecto sobre la próxima revolución industrial. IA es la más prometedora de las tecnologías según el gurú tecnológico.

 

Lo cierto es que el comentario se suscitó luego de una pregunta por parte de un usuario en Reddit que le preguntó si, actualmente, hay alguna tecnología tan prometedora como lo había sido Internet a finales del siglo XX.

 

A través de la misma Reddit el cofundador de Microsoft menciono “La IA es más grande. No creo que la Web 3.0 sea tan grande o que las funciones que ofrece el metaverso por sí solas sean revolucionarias, pero la IA es bastante revolucionaria” resaltando ademas que la IA tendrá un enorme impacto.

 

Lo cierto es que en el ultimo tiempo la IA ha ganado bastante terreno, el reciente lanzamiento de ChatGPT-3 por cuenta de OpenAI ha causado revuelo no solo en el escenario tecnológico, sino social científico, de seguridad y hasta educativo.

 

 

 

Enero 10 / 2023 23:00 hrs

Trojan Puzzle.

 

Un grupo de investigadores de Microsoft en conjunto con las universidades de California, y Virginia han ideado un nuevo ataque de envenenamiento que sería capaz de engañar a los asistentes de codificación basados ​​en IA para que sugieran un código peligroso. Ver más.