ウェブサイト検索

ハッカーが恐ろしい新しい方法で使用できる 5 つの AI テクノロジー


AI テクノロジーは多くの業界を混乱させている可能性がありますが、少なくともほとんどの場合、長期的には害よりも有用であることがわかります。ただし、これらの新しいツールは、悪意のあるタイプに多くの新しい機会を開いています。

強化されたフィッシング攻撃のための自然言語 AI

自然な人間の言語を理解し、生成できるようにすることは、初期の頃から AI 研究の主な目標の 1 つです。今日では、合成音声生成、高度に洗練されたチャットボット、自然言語テキスト ジェネレーター、その他多くの関連する AI 駆動型テクノロジがあります。

これらのアプリケーションは、ハッカーが正当なエンティティとその代表者を装い、人々から機密情報を引き出すフィッシング攻撃に最適です。これらの新しいテクノロジを使用すると、電子メール、電話、インスタント メッセージング、またはコンピューター システムを介して人間が互いに会話するその他のあらゆる場所で、AI エージェントが集団になりすますことができます。

私たちが知っているフィッシングとは異なり、これはターボチャージされた「スピア」フィッシングのようなもので、特に詐欺をより効果的にするために、特定の個人に関する情報を使用して特定の個人を標的にしようとします。たとえば、AI ソフトウェアは誰かの上司になりすまして、CEO 詐欺として知られるフィッシングの亜種である口座にお金を支払うよう要求する可能性があります。

ディープフェイク ソーシャル エンジニアリング

ソーシャル エンジニアリングとは、人間の心理や行動の弱点を狙って、厳しい技術的セキュリティ対策を回避するハッキングの手法です。たとえば、ハッカーは、衛生作業員を装った重要人物の秘書に電話をかけて、現在どこにゴミが捨てられているかを尋ねます。次に、犯罪者はその場所に向かい、破棄された文書や、つなぎ合わせてエクスプロイトを作成できるその他の手がかりを探します。

顔や声を複製できるディープ ラーニング システム(ディープフェイクと呼ばれる)は、リアルタイムで使用できるレベルまで進歩しています。自分の声のサンプルを送信して、自分と同じように聞こえるテキスト読み上げを行うことができるサービスがあります。原則として、このような技術は誰の声のクローンにも使用できます。次に、あなたがしなければならないのは、あなたが好きな人になりすましている誰かに電話またはビデオ通話をすることだけです.公人はすべての中で最も簡単なターゲットです.

たとえば、Podcastle Revoice は、送信した音声サンプルに基づいて「自分の音声のデジタル コピーを作成する」ことを約束するサービスの 1 つです。 Podcastle は、これらの懸念にどのように対処するかについて、次のような声明を私たちに伝えました。

ボイス クローンを使用したディープフェイクやソーシャル エンジニアリングの可能性は深刻であり、そのため、企業は悪用の可能性を軽減することが不可欠です。 Podcastle の Revoice テクノロジーを使用して、音声のデジタル コピーを作成できます。そのため、音声の作成方法に関する明確なガイドラインと、誤用を防ぐためのチェックがあります。私たちのプラットフォームでデジタル音声を生成するには、ユーザーは 70 の異なる (つまり、Podcastle によって決定される) 文の生の音声録音 を送信する必要があります。つまり、ユーザーは他の誰かの事前録音を単純に使用することはできません。声。これらの 70 の録音は、チームによって手動でチェックされ、単一の声の正確性が保証されます。その後、録音は AI モデルによって処理されます。

よりスマートなコード クラッキングと自動化された脆弱性発見

人間がコード行を精査して脆弱性を探し、修正するか悪用するのに何時間もかかります。現在、ChatGPT などの機械学習モデルは、コードを記述し、提出されたコードの脆弱性を認識することができることがわかりました。これにより、AI が遅かれ早かれマルウェアを作成する可能性が開かれます。

機械学習を通じて学習し、適応するマルウェア

機械学習の主な強みは、膨大な量のデータを取得し、そこから有用なルールと洞察を引き出す方法です。将来のマルウェアがこの一般的な概念を利用して、対策に迅速に適応する可能性があると予想するのは妥当です。

これにより、マルウェア システムとマルウェア対策システムの両方が事実上、お互いをより高度なレベルに急速に駆り立てる戦争型の機械学習システムになる状況につながる可能性があります。

偽のデータを作成するジェネレーティブ AI

AI テクノロジは、画像、ビデオ、テキスト、およびオーディオを一見何もないところから生成できるようになりました。これらのテクノロジーは、専門家が(少なくとも一見しただけでは)偽物であると判断できないところまで来ています。これは、将来的にインターネット上に偽のデータが殺到する可能性があることを意味します.

一例として、現在偽のソーシャル メディア プロフィールはかなり簡単に見破ることができるため、情報に通じた聴衆にとっては、ナマズ詐欺や偽情報の種をまく単純なボット キャンペーンを回避することはそれほど難しくありません。ただし、これらの新しい AI テクノロジは、本物と見分けがつかない偽のプロファイルを生成する可能性があります。

偽の人生全体の生成された写真、独自の首尾一貫したプロフィール情報、および他の偽の人々で構成される友人や家族のネットワーク全体を備えた、独自の顔を持つ「人」。実在の人物と同じように、全員がお互いに会話しています。このような偽のオンライン エージェントのネットワークにより、悪意のあるアクターがさまざまな詐欺や偽情報キャンペーンを実行する可能性があります。

AI は治療と病気の両方ですか?

一部の人々が悪意のある理由で新しいテクノロジーを使用しようとすることは避けられません。この新世代の AI テクノロジが他と異なるのは、それを検出する人間の能力を急速に超えていることです。

これは皮肉なことに、これらの AI によって強化された攻撃手段に対する最善の防御策は、火で戦う他の AI テクノロジーになることを意味します。これは、彼らがそれを公にするのを見て、「善人」が上に来ることを期待する以外に選択肢がないように思われる.それでも、Facebook、Facebook マーケットプレイス、PayPal、LinkedIn などの人気のあるプラットフォームで、オンラインで保護し、ランサムウェアを回避し、詐欺を見つけるためにできることがいくつかあります。