La siguiente es una publicación invitada de John deVadoss, Junta Directiva del Global Blockchain Business Council en Ginebra y cofundador de InterWork Alliance en Washington, DC.
La semana pasada tuve la oportunidad en Washington, DC de presentar y discutir las implicaciones de la IA en relación con la seguridad con algunos miembros del Congreso y su personal.
La IA generativa actual me recuerda a Internet a finales de los años 80: investigación fundamental, potencial latente y uso académico, pero aún no está lista para el público. Esta vez, la ambición desenfrenada de los proveedores, impulsada por capital de riesgo de ligas menores y galvanizada por las cámaras de eco de Twitter, está acelerando el avance de Un mundo feliz de la IA.
Los llamados modelos de fundaciones “públicas” están contaminados y son inapropiados para el uso comercial y de consumo; las abstracciones de privacidad, cuando existen, se filtran como un colador; las construcciones de seguridad son en gran medida un trabajo en progreso, ya que aún se están comprendiendo el área de superficie de ataque y los vectores de amenaza; y las barreras ilusorias, cuanto menos se hable de ellas, mejor.
Entonces, ¿cómo terminamos aquí? ¿Y qué pasó con Seguridad? ¿Privacidad?
Modelos de cimientos “comprometidos”
Los llamados modelos “abiertos” son todo menos abiertos. Diferentes proveedores promocionan sus grados de apertura al abrir el acceso a los pesos de los modelos, la documentación o las pruebas. Aún así, ninguno de los principales proveedores proporciona nada parecido a los conjuntos de datos de entrenamiento o sus manifiestos o linaje para poder replicar y reproducir sus modelos.
Esta opacidad con respecto a los conjuntos de datos de entrenamiento significa que si desea utilizar uno o más de estos modelos, entonces usted, como consumidor o como organización, no tiene ninguna capacidad de verificar o validar el alcance de la contaminación de los datos con con respecto a la propiedad intelectual, derechos de autor, etc., así como contenido potencialmente ilegal.
Fundamentalmente, sin el manifiesto de los conjuntos de datos de entrenamiento, no hay forma de verificar o validar el contenido malicioso inexistente. Actores nefastos, incluidos actores patrocinados por el estado, colocan contenido de troyano en la web que los modelos ingieren durante su entrenamiento, lo que genera efectos secundarios impredecibles y potencialmente maliciosos en el momento de la inferencia.
Recuerde, una vez que un modelo se ve comprometido, no hay forma de desaprenderlo, la única opción es destruirlo.
Seguridad “porosa”
Los modelos de IA generativa son lo último en seguridad, ya que “todos” los datos se han ingerido en un contenedor. En la era de la IA surgen nuevas clases y categorías de vectores de ataque; La industria aún tiene que aceptar las implicaciones tanto con respecto a proteger estos modelos de las amenazas cibernéticas como con respecto a cómo estos modelos son utilizados como herramientas por los actores de las amenazas cibernéticas.
Se pueden utilizar técnicas maliciosas de inyección rápida para envenenar el índice; se puede utilizar el envenenamiento de datos para corromper los pesos; se pueden utilizar ataques de incrustación, incluidas técnicas de inversión, para extraer datos enriquecidos de las incrustaciones; La inferencia de membresía se puede utilizar para determinar si ciertos datos estaban en el conjunto de entrenamiento, etc., y esto es solo la punta del iceberg.
Los actores de amenazas pueden obtener acceso a datos confidenciales mediante inversión de modelos y consultas programáticas; pueden corromper o influir de otro modo en el comportamiento latente del modelo; y, como se mencionó anteriormente, la ingestión fuera de control de datos en general conduce a la amenaza de actividad cibernética incorporada patrocinada por el estado a través de caballos de Troya y más.
Privacidad “con fugas”
Los modelos de IA son útiles debido a los conjuntos de datos en los que se entrenan; La ingestión indiscriminada de datos a escala crea riesgos de privacidad sin precedentes para el individuo y el público en general. En la era de la IA, la privacidad se ha convertido en una preocupación social; las regulaciones que abordan principalmente los derechos de datos individuales son inadecuadas.
Más allá de los datos estáticos, es imperativo que las indicaciones conversacionales dinámicas se traten como propiedad intelectual que debe protegerse y salvaguardarse. Si usted es un consumidor que participa en la creación conjunta de un artefacto con un modelo, desea que las indicaciones que dirigen esta actividad creativa no se utilicen para entrenar el modelo ni se compartan de otro modo con otros consumidores del modelo.
Si usted es un empleado que trabaja con un modelo para generar resultados comerciales, su empleador espera que sus indicaciones sean confidenciales; Además, las indicaciones y las respuestas necesitan un seguimiento de auditoría seguro en caso de que surjan problemas de responsabilidad por parte de cualquiera de las partes. Esto se debe principalmente a la naturaleza estocástica de estos modelos y la variabilidad de sus respuestas a lo largo del tiempo.
¿Qué pasa después?
Estamos ante un tipo diferente de tecnología, distinta a cualquier otra que hayamos visto antes en la historia de la informática, una tecnología que exhibe un comportamiento emergente y latente a escala; Los enfoques de ayer en materia de seguridad, privacidad y confidencialidad ya no funcionan.
Los líderes de la industria están dejando de lado la cautela, dejando a los reguladores y formuladores de políticas sin otra alternativa que intervenir.