La inteligencia artificial (IA) es un cambio de juego absoluto, según la gran mayoría de nuestros lectores en una encuesta reciente. Hay algunos líderes de opinión que ahora abogan por una mayor moderación en la forma en que abordamos la IA . Sin embargo, otros advierten sobre los posibles efectos secundarios negativos del estancamiento de la investigación en este momento. Algunos van tan lejos como para decir que debemos abrocharnos el cinturón para el viaje lleno de baches porque estamos en el viaje, nos guste o no. Pero eso no cambia la realidad en este momento, lo que significa que los profesionales de la seguridad deben estar al día con los riesgos de seguridad que provienen de la accesibilidad generalizada de ChatGPT.
Con eso en mente, queríamos llamar la atención sobre los posibles problemas de seguridad que ya estamos viendo con ChatGPT. Algunas de estas son preocupaciones sobre el acceso generalizado a una herramienta que puede crear automáticamente malware: el posible “aumento del script kiddie”, por así decirlo. Otros están más preocupados por cuestiones relacionadas con la seguridad de ChatGPT. De cualquier manera, todos estos son problemas clave con la herramienta mágica en boca de todos en este momento.
¿ChatGPT es un riesgo para la seguridad?
En su mayor parte, no. ChatGPT, que, para muchas personas, solo significará el chatbot gratuito creado con GPT-3, en sí mismo es tan peligroso como la persona que lo usa. No hay un motivo especialmente claro en este momento para las prohibiciones generalizadas de ChatGPT como un riesgo de seguridad. Pero crea algunos dolores de cabeza para los secpros que no tienen que administrar la integración con sus sistemas.
ChatGPT y el problema de los modelos de lenguaje grande
Esta crítica no es claramente una preocupación sobre ChatGPT 3, 3.5 o 4, pero es una preocupación con otros modelos y plataformas menos escrupulosos a medida que más y más personas se involucran en la acción. Algunos modelos de lenguaje grande (LLM) guardan automáticamente sus entradas (es decir, todas las indicaciones ingresadas) en sus bases de datos. Si bien las solicitudes de una breve biografía de Elvis Presley o el discurso “Tengo un sueño” si Buggey lo hubiera pronunciado no revelarán una gran cantidad de información confidencial, existe la preocupación de que algunos detalles confidenciales puedan filtrarse a largo plazo. .
A medida que estos modelos se vuelven más populares, existe la preocupación de que los datos de “ajuste fino” y “aumento rápido” puedan usarse de manera que violen la privacidad y, potencialmente, las leyes de derechos de autor. Si todas nuestras solicitudes se agregan a una base de datos LLM oculta, existe la preocupación de que los datos confidenciales personales u organizacionales puedan estar fácilmente disponibles para un grupo de actores de amenazas determinado en particular. En reacción a esta preocupación, el NCSC recomendó no ingresar información confidencial en los LLM públicos y solo hacer preguntas a estos modelos que no causarían problemas si se filtraran.
ChatGPT y suplantación de identidad
Como era de esperar, un bot que genera contenido escrito ha terminado siendo útil para las personas que buscan información confidencial. Aunque solo tenemos pantallas de prueba de concepto en este punto (o, al menos, confirmadas en este momento), existe un caso de uso claro para que los actores de amenazas usen ChatGPT para contenido de correo electrónico de phishing producido en masa.
Esta facilidad de acceso a correos electrónicos de phishing de alta calidad es muy preocupante para una cultura de seguridad cibernética que se esfuerza por dejar constancia de la importancia de las políticas de apertura de correo electrónico.
ChatGPT y malware
Los profesionales de la seguridad probablemente ya saben que ChatGPT se puede usar para generar fragmentos rápidos de código útil. Esto puede ahorrar un tiempo valioso al generar su propio código (o buscar en Stack Overflow cuando eso falla…), pero viene con un problema preocupante cuando está en las manos equivocadas.
Así como la generación de código legítimo es increíblemente fácil, la generación de código ilegítimo (por ejemplo, la creación de malware conocido) también es posible. Esto significa que una persona sin ninguna habilidad particular de piratería ni siquiera necesita consultar Github en estos días. Ahora, simplemente pueden escribir un aviso en una versión pirateada de ChatGPT y obtener todo lo que necesitan en cinco minutos.
Cyberark incluso llegó a demostrar que ChatGPT puede crear malware polimórfico, diseñado específicamente para confundir a los expertos en ciberseguridad y evadir la detección. Si bien es de esperar que el sofisticado chatbot tenga defensas integradas, parece que las existentes se pueden evitar fácilmente si sabe lo que está haciendo.
Fuente: https://security.packt.com/chatgpt-already-a-security-risk/