Aumentan los casos de voces clonadas con Inteligencia Artificial (IA) para cometer extorsiones. Esta tecnología permite estrategias de ciberdelincuencia difíciles de detectar.

Se emplea para suplantar identidades, robar información y extorsionar, en entornos digitales y físicos.

La estafa por teléfono se originó en EEUU y alcanzó su auge en 2022, cuando 5.000 víctimas pagaron USD 8.8 millones en promedio, de acuerdo con la Comisión Federal de Comercio (FTC) de ese país.

1

Tanto en América Latina como alrededor del mundo, las empresas que desarrollan la IA capaz de clonar voces aún carecen de regulaciones al respecto.

No existen precedentes legales: eso significa que el mal uso de esta tecnología aún tiene libre el camino de cometer fraudes y el dinero de las extorsiones ha tenido un margen de recuperación mínimo.

Respecto a los ciberdelitos en general, la región se encuentra en un nivel medio de prevención al contar con estrategias y capacitación profesional contra sus técnicas.

No obstante, la región comparte una legislación vaga en cuanto al uso de la IA para el caso preciso de las extorsiones. Solo se contemplan casos de robo de identidad.

4