Нова измама за бързо забогатяване

За поредна измама в социалните мрежи с лица на NOVA, съобщиха от медията. Фалшив видеоклип рекламира схеми за бързо забогатяване.

Този път в изкривената реалност попадна и водещата на "Събуди се" Марина Цекова. Хакери премодулирали гласа ѝ, а веднага след нея в лъжливата реклама е замесен и президентът Румен Радев.

Оказва се, че има хора, които са се поддали на измамата и са загубили десетки хиляди левове.

"Нова платформа ще ви позволи да печелите стабилно и без риск. Това вече е тествано от обикновени хора, които за първия месец успяха да изкарат годишните си заплати, а някои дори и повече". Това са думи, изречени от генерирания от изкуствен интелект глас на Марина Цекова - уважаван публицист и водеща на "Събуди се", и целят да ви въвлекат в измама.

Във фейк видеото е и лицето на президента на България Румен Радев. Но и думите на държавния глава в клипа са генерирани от измамници.

"Дирекция "Киберпрестъпност" в ГДБОП ежедневно премахва подобни видеа. Или жертви на инвестиционни измами ни сигнализират, или хора, които са ги видели случайно. Това конкретно видео го докладвахме и се надяваме в близките час-два да изчезне", заяви главен комисар Владимир Димитров, "Киберсигурност" в ГДБОП.

Профилът на жертвите на измамите показва, че 90% от тях са мъже. Те са над 30-годишна възраст с добре платена професия и повече свободно време. Но измамниците зад клавиатурата не подбират.

"Само днес имаме две жалби от дами, които са загубили пари - едната 30 000 лева, другата над 80 000 лева в подобни инвестиционни измами. Тези измами продължават няколко месеца", посочва главен комисар Димитров.

Проверка на NOVA показва, че това е единственото видео във въпросната Facebook страница, която е създадена на 7 февруари. Има само 29 последователи, но фалшивата реклама е видяна от хиляди потребители. Описанието на видеото е на руски и гласи: “Уникални новини за гражданите”.

"Тези видеа се изготвят от организирани престъпни групи, които се занимават с инвестиционни измами. Ситуират своите кол центрове в държави като България, Молдова, Украйна, Беларус, Казахстан. От тези колцентрове се таргетират граждани на практика на територията на цял свят. Това не е само проблем за България", категоричен е главен комисар Димитров.

В края на всяко дийпфейк видео има призив жертвите да кликнат на линк, който ги отвежда към сайт, където им искат лични данни. "Име, фамилия и телефон. В последствие с нея се свързват от този кол център да бъде назначен на жертвата персонален съветник, който да комиуникира с нея  и да я подканва да вкарва пари в тази платформа. 

Някои от жертвите се приканват да вземат заем от техни приятели или бързи кредити, за да инвестират в така наречената инвестиционна платформа. Целта е да се въведе в заблуждение бъдещата жертва. Когато нещо се каже от обществена фигура - всички се надяват това да е истина. Ествествено това е дийпфейк видео, което е имамно. Това е идеята на престъпниците - лице, което е познато от телевизорите, да каже нещо подвеждащо", твърди експертът от ГДБОП.

Но дали подвеждащият изкуствен интелект, използван от престъпници, може да се впрегне и от разследващите в тяхна помощ. "Има широко приложение, но човешкият мозък е незаменим. Каквото направи AI - ще трябва да има контрол от страна на човека. Използвали сме го за някои неща, но не се справи добре и в крайна сметка ние трябваше да си свършим работата", подчертава главен инспектор Димитров.

Тази игра на “дълбоката лъжа” все още няма правила. Докато законодателните органи измислят такива - съветът на експертите е, ако нещо звучи прекалено хубаво, за да е истина, то най-вероятно е измама.

 

Добавете коментар


Защитен код
Обнови