AI scam calls imitating familiar voices are a growing problem – here’s how they work

Thu, 10 Aug 2023 01:36:31 +1000

Andrew Pam <xanni [at]>

Andrew Pam

"Scam calls using AI to mimic voices of people you might know are being used to
exploit unsuspecting members of the public. These calls use what’s known as
generative AI, which refers to systems capable of creating text, images or any
other media such as video, based on prompts from a user.

Deepfakes have gained notoriety over the last few years with a number of
high-profile incidents, such as actress Emma Watson’s likeness being used in a
series of suggestive adverts that appeared on Facebook and Instagram.

There was also the widely shared – and debunked – video from 2022 in which
Ukrainian president Volodymyr Zelensky appeared to tell Ukranians to “lay down

Now, the technology to create an audio deepfake, a realistic copy of a person’s
voice, is becoming increasingly common. To create a realistic copy of someone’s
voice you need data to train the algorithm. This means having lots of audio
recordings of your intended target’s voice. The more examples of the person’s
voice that you can feed into the algorithms, the better and more convincing the
eventual copy will be.

Many of us already share details of our daily lives on the internet. This means
the audio data required to create a realistic copy of a voice could be readily
available on social media. But what happens once a copy is out there? What is
the worst that can happen? A deepfake algorithm could enable anyone in
possession of the data to make “you” say whatever they want. In practice, this
can be as simple as writing out some text and getting the computer to say it
out loud in what sounds like your voice."

       *** Xanni ***
--               Andrew Pam                 Chief Scientist, Xanadu            Partner, Glass Wings               Manager, Serious Cybernetics

Comment via email

Home E-Mail Sponsors Index Search About Us