Home Negocio Deepfakes: una amenaza para la industria de seguros

Deepfakes: una amenaza para la industria de seguros

by notiulti
Los deepfakes o los medios sintéticos se pueden utilizar eficazmente para presentar reclamaciones fraudulentas, crear informes de inspección falsos e incluso establecer la existencia y condición de activos que no existen. (Ilustración de Daniel Hertzberg)

Si está familiarizado con las herramientas de edición de fotos y videos, entonces probablemente haya oído hablar de deepfakes, una generación emergente de videos mejorados con inteligencia artificial que han demostrado la capacidad de difuminar la realidad de formas que son extremadamente difíciles de detectar para los humanos o incluso para las máquinas.

A diferencia de la edición de video convencional, los deepfakes utilizan inteligencia artificial (IA) para alterar o generar videos sintéticamente, brindando un nuevo nivel de realismo sin los rastros forenses presentes en los medios digitales editados. Si bien estas falsificaciones avanzadas pueden parecer ciencia ficción, muchos investigadores han concluido que es solo cuestión de tiempo antes de que las falsificaciones profundas se vuelvan casi indetectables para el ojo humano y, posteriormente, indetectables incluso para las elaboradas herramientas forenses.

Mientras que los deepfakes se han manifestado en gran medida como una novedad en las redes sociales, los deepfakes y las fotos y videos similares generados por IA pueden representar una amenaza significativa para las industrias que toman decisiones financieras importantes sobre el contenido de las fotos y videos, como los seguros. La capacidad de distorsionar la realidad de formas que son difíciles o imposibles de detectar aumenta significativamente el riesgo de fraude en los medios digitales en las reclamaciones de seguros en un momento en que muchas compañías han adoptado rápidamente el autoservicio como una forma de procesar las reclamaciones durante la pandemia de COVID.

A principios de este año, el FBI dio la alarma de que los deepfakes son una nueva amenaza de ciberataque dirigida a las empresas. Como resultado, muchas organizaciones están considerando estrategias para mitigar los riesgos y los resultados potencialmente indeseables que pueden resultar.

Conciencia de deepfake

Para ayudar a promover la conciencia sobre el peligro que representan los deepfakes en el ámbito empresarial, Attestiv encuestó recientemente a profesionales de negocios con sede en EE. UU. Sobre las amenazas a sus negocios relacionadas con los medios digitales sintéticos o manipulados. La encuesta también preguntó sobre su plan de acción y estrategias de defensa.

No es sorprendente que más del 80% de los encuestados reconocieran que los deepfakes representaban una amenaza para su organización. Las tres principales preocupaciones de deepfake incluyeron:

  1. Amenazas reputacionales
  2. Amenazas de TI
  3. Amenazas de fraude

Si bien cada amenaza cibernética plantea riesgos para la reputación y de TI, el aspecto del fraude es más relevante para la industria de seguros, ya que se basa en fotografías, videos y documentos digitales para tomar decisiones comerciales y ya está sujeto a decenas de miles de millones de dólares en fraude anual en el Nosotros solos.

Sobre la pregunta de qué medidas tomarán las organizaciones para protegerse contra los medios digitales alterados, menos del 30% de los encuestados reveló tener alguna estrategia de defensa implementada. Si bien la cantidad de inacción expone un problema, un consuelo es que otro 25% de los encuestados dijeron que están planeando tomar medidas, lo que significa que reconocen la amenaza y se está trabajando en una solución. Por otro lado, eso deja a un 46% de los encuestados sin un plan o sin conocimiento del plan.

Quizás irónicamente, los resultados fueron un poco peores para los seguros, donde solo el 39% de los encuestados indicó que está tomando o planeando pasos para mitigar el riesgo de deepfakes. Estos números fueron sorprendentemente más bajos que la media, dado que otras industrias podrían ser menos susceptibles al fraude en los medios digitales.

Cuando se le preguntó: “¿Cuál es la mejor estrategia de defensa que pueden tomar las organizaciones contra los medios digitales alterados?” Los resultados mostraron que más del 57% de los encuestados en los sectores de seguros y finanzas sintieron que la mejor defensa era una solución automatizada de detección y filtrado, mientras que el 34% consideró que capacitar a los empleados para detectar deepfakes era la mejor solución. Este resultado resultó a la vez alentador y algo angustioso.

Las soluciones automatizadas de detección y filtrado son de hecho un enfoque viable para detener las falsificaciones profundas, ya que actualmente existen soluciones en el mercado que emplean tecnologías como blockchain o IA para prevenir o detectar medios manipulados. Por otro lado, capacitar a los empleados para detectar deepfakes está lejos de ser una solución viable dada la probabilidad de que rápidamente se vuelvan indetectables para la inspección humana. Para algunas empresas, puede ser necesaria una mayor educación sobre la amenaza deepfake y la trayectoria que está tomando la tecnología.

Ayuda de los estándares de la industria

En septiembre de 2019, Facebook se asoció con otras empresas y el mundo académico para lanzar el Desafío de detección de deepfake con la esperanza de adelantarse a la importante amenaza de desinformación que plantean los deepfake en las redes sociales. Muchos participantes construyeron tecnologías para detectar deepfakes y medios manipulados, y el resultados publicados en junio de 2020 fueron prometedores, aunque menos que estelares. El mejor desempeño registra una precisión del 65% en un conjunto de datos de caja negra. Si bien este fue un buen comienzo, dejó mucho margen de mejora.

Casi al mismo tiempo, se lanzaron otros grupos de trabajo, como el Iniciativa de autenticidad de contenido (CAI), una iniciativa intersectorial que permite una mejor evaluación de la procedencia del contenido iniciada por Adobe en asociación con Twitter y el New York Times. Del mismo modo, el C2PA fue fundada en febrero de 2021 por Microsoft y Adobe para ofrecer estándares técnicos para la procedencia y autenticidad del contenido.

Si bien los estándares han comenzado la marcha para ayudar a frustrar los deepfakes en varias industrias, las compañías de seguros tienen la opción de esperar o desarrollar un plan interino.

Un enfoque para proteger los seguros

Puede que hayas visto el sitio web Esta X no existe, un sitio web inteligente que utiliza redes generativas de confrontación, la tecnología detrás de los deepfakes, para crear personas sintéticas, vehículos, gatos, casas de alquiler y similares. Si bien es una distracción entretenida, de ninguna manera es exagerado aplicar la misma tecnología para crear accidentes falsos o daños en el hogar que pueden exagerar o crear un reclamo de seguro falso. Es más, ahora que este proverbial gato ha salido de la bolsa, no está listo para desaparecer pronto.

Entonces, ¿qué debería hacer una compañía de seguros? Llevar alguna forma de protección automatizada de deepfake a los seguros es la solución más viable para protegerse contra esta nueva clase de fraude. Pero, ¿cómo se puede implementar en los procesos existentes para presentar reclamos?

Como resultado, es posible que algunos de los procesos no necesiten cambiar en absoluto. Por ejemplo, las fotos de reclamaciones recopiladas por los ajustadores ya están pasando por un tercero de confianza. Si bien ninguna parte interna o externa es inmune al comportamiento fraudulento, una parte interesada de confianza probablemente estaría arriesgando su trabajo y reputación al presentar reclamos falsos. En pocas palabras, el costo de cometer fraude de reclamos sería muy alto.

Por otro lado, cualquier proceso impulsado por el asegurado en forma de autoservicio es susceptible de medios manipulados o falsos. Considerar:

  • Reclamaciones de automóviles o viviendas
  • Inspecciones con fines de suscripción o control de pérdidas.
  • Establecimiento de la existencia y condición de los activos durante la suscripción.

Los deepfakes o los medios sintéticos se pueden utilizar eficazmente para presentar reclamaciones fraudulentas, crear informes de inspección fraudulentos e incluso establecer la existencia y condición de activos que no existen. Piense en reclamos por daños exagerados de un huracán o tornado cercano o reclamos por artículos que ni siquiera existen, es decir, un reloj Rolex inexistente que se aseguró y desapareció misteriosamente.

¿Sugiere esto volver a utilizar ajustadores e inspectores humanos para reclamos importantes? Si bien dar un paso atrás hacia la inspección manual podría ayudar a eliminar la amenaza deepfake, una capa de protección contra las deepfakes en los procesos de autoservicio serviría mejor sin deshacer años de transformación digital. Además, dado que muchos procesos de reclamaciones pasan al procesamiento directo, sin necesidad de intervención humana aparte de casos excepcionales, se sugieren dos enfoques en línea para implementar una capa de defensa:

  1. Detección en línea: Uso de IA y modelos basados ​​en reglas para detectar deepfakes en todos los medios digitales enviados. De manera similar al desafío de detección de Deepfake mencionado anteriormente, aplique un análisis forense basado en inteligencia artificial a cada foto o video antes de procesar un reclamo.
  2. Prevención en línea: Autenticación digital de fotos / videos en el momento de la captura para “proteger contra manipulaciones” los medios en el punto de captura. Esto podría ser simplemente como parte de una aplicación segura que evita que el asegurado cargue sus propias fotos, o incluso mejor, utilizando una cadena de bloques o un libro de contabilidad inmutable que protege contra cambios internos y externos en los medios mediante la utilización de un modelo de consenso global.

Al profundizar en los dos enfoques, la detección tiene algunas desventajas. Estos incluyen la cantidad de tiempo y procesamiento necesarios para analizar fotos o videos. El análisis exhaustivo con inteligencia artificial es un desafío para ejecutarlo en línea, ya que las fotos se recopilan a partir de las afirmaciones. Además, este análisis puede ser un juego interminable del gato y el ratón, similar al análisis de virus, dadas las constantes mejoras en la tecnología deepfake. Las herramientas de detección diseñadas para marcar la manipulación siempre estarán persiguiendo, evolucionando y mejorando las herramientas de edición que realizan la manipulación.

Por otro lado, la detección es a veces la única defensa cuando los medios no son capturados por una aplicación o una persona de confianza. Por ejemplo, si un asegurado envía fotos de reclamaciones por correo electrónico, una aseguradora solo tiene dos opciones: solicitar que las fotos se vuelvan a tomar desde una aplicación confiable o aceptar las fotos y realizar un análisis para asegurarse de que las fotos sean auténticas. Para responder a esa pregunta, a menos que un asegurado tenga un historial de fraude de seguros, es poco probable que una mala experiencia de reclamos sea una compensación razonable para una mejor reducción del fraude.

Eso nos lleva a las tecnologías de prevención que, a diferencia de la detección, ofrecen una solución más confiable y preparada para el futuro para el problema de las falsificaciones profundas. Al bloquear los medios en el punto de captura, de modo que cualquier cambio se vuelva evidente, tenemos mucha más confianza en que el contenido que estamos viendo es original y sin cambios. Piense en ello como una marca de agua digital que no necesariamente hace garabatos en las fotos. El único inconveniente es que la prevención solo se aplica en el punto de creación o captura, lo que significa que no siempre puede reemplazar la detección como la mejor defensa cuando el software de captura no está disponible o no se usa.

En términos pragmáticos, esto puede sugerir un arreglo híbrido, comenzando con una aplicación segura que captura fotos de reclamos y las autentica en el punto de captura. Ahora, suponiendo que todos los asegurados usen la aplicación, se elimina la amenaza de deepfakes. Fuera de este mundo ideal, sabemos que la adopción de aplicaciones no es del 100% y, en última instancia, algunas afirmaciones se filtrarán a través de otros procesos menos seguros que requieren algún tipo de detección.

¿El veredicto? Algunos operadores pueden intentar impulsar una mayor adopción de sus aplicaciones con seguridad en línea; otros pueden optar por adoptar un enfoque híbrido de prevención y detección, mientras que otros pueden simplemente asumir el riesgo de fraude adicional, confiando en el desaliento ya existente a través del enjuiciamiento penal del fraude y con la esperanza de que pronto surjan estándares para prevenir deepfakes y medios sintéticos de impactar sus afirmaciones.

El seguro es vital y complejo, salvaguardando todos los aspectos de nuestras vidas, pero también es cada vez más vulnerable a los nuevos métodos de fraude y engaño con la aparición de deepfakes. Con la creciente adopción del autoservicio y las formas en que los medios digitales pueden verse fácilmente comprometidos, es fundamental comenzar a desafiar el status quo dentro de la prevención del fraude mientras se aprovechan los estándares futuros una vez que estén disponibles. Los pasos que tome para proteger las reclamaciones de seguros hoy en día seguirán dando sus frutos en los años venideros.

Nicos Vekiarides ([email protected]) es el director ejecutivo y cofundador de Attestiv. Ha pasado los últimos 20 años en TI empresarial y en la nube, como director ejecutivo y emprendedor, llevando tecnologías innovadoras al mercado.

Relacionado:

0 comment
0

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.