Chatgpt может построить банковские переводы, тайский блоггер предупреждает

Недавнее открытие Thai Blogger вызвало тревогу о возможном злоупотреблении чатом AI, Chatgpt, из -за его способности генерировать поддельные документы, особенно банковские коньки. Блогер, известный как «Кафаак», поделился этим открытием в Facebook 27 марта. На своей должности он поделился модифицированной банковской картой, показывающей передачу 400 000 Thb (11 800 долл. США) на свой счет, сумму, полностью изготовленную AI. По словам Кафаака, оригинальный слайд был записи о том, что он доставил себе 23 000 т.ж. (678 долларов). Однако, попросив Chatgpt изменить детали, включая изменение названия на слайде на «шведский стол дедушки» и увеличить сумму передачи до 400 000 долларов США (11 800 долл. США), результат был убедительным. «ИИ даже скорректировал ссылочные номера, сделав поддельный документ очень подлинным», – отметил он в письме. «Хотя в тайском тексте появились некоторые незначительные ошибки орфографии, я заметил, что английские тексты и арабские числа являются точными. Даже если возникают ошибки, их можно легко исправить». Кафаак также подчеркнул, что CHATGPT может даже подражать водяному знаку на берегу банка, что затрудняет обнаружение фальсификации. Он посоветовал своим последователям контролировать фактический баланс в своих счетах, чтобы подтвердить любые депозиты, с осторожностью, что простое управление квитанцией может больше не быть достаточным для обеспечения легитимности транзакции. Предупреждение эксперта по ИИ. Откровение вызвало дальнейшие проблемы среди экспертов в этой области. Piyarit Ittichaiwong, соучредитель Preceptor AI, публично повторил предупреждение Кафаака о своей личной учетной записи Facebook, указывая на то, что последняя версия GPT-4, которая включает навыки генерации изображений, теперь может создавать и изменять документы с тревожным реализмом. По словам эксперта, они могут варьироваться от банковских коньков до медицинских сертификатов и других официальных документов, и практически невозможно различить кованые версии реальных. «Последствия такой технологии обширны. Эксперты предупреждают, что способность создавать финансовые и официальные документы может нанести серьезный ущерб», – подчеркнул Пиярит на своей личной учетной записи в Facebook. «Создание таких документов уже является серьезным преступлением, но использование ИИ для обмана других может осложнить этот вопрос, особенно если это приведет к финансовому или репутации». Чтобы защитить от этой новой угрозы, Пиярит рекомендует людям принимать дополнительные меры предосторожности при проверке важных документов. Он советует контролировать фактическую сумму, депонированную применением банка или настройки уведомлений SMS или линии. Кроме того, сканирование QR -кода на банковской карте может помочь контролировать транзакцию с помощью системы банка. В случае медицинских сертификатов или других официальных документов эксперты предлагают напрямую связаться с источником в качестве больницы, чтобы подтвердить их подлинность. Piyarit подчеркнул важность никогда не полагаться на документы или картины, которые не контролировались.