従量課金制 - AI Model Orchestration and Workflows Platform
BUILT FOR AI FIRST COMPANIES

Ai が銀行業界の規制基準をどのように満たしているか

Chief Executive Officer

Prompts.ai Team
2025年6月11日

AI は銀行が複雑な規制基準を満たす方法を変革し、コンプライアンスをより迅速に、より正確に、手作業を減らします。知っておくべきことは次のとおりです。

  • 時間の節約: AI により手動のコンプライアンス タスクが最大 72% 削減され、チームは戦略的な作業に集中できるようになります。
  • 導入の急増: 2024 年までに、銀行リーダーの 75% が AI ソリューションを導入または導入しています。
  • 規制の重視: AI は、最新の米国プライバシー法や世界的な AI 倫理基準など、公平性、透明性、データ保護に関するより厳格な法律に準拠する必要があります。
  • コストへの影響: AI コンプライアンス支出は 2024 年の 60 億ドルから 2025 年には 90 億ドルに増加すると予想されており、銀行部門は年間最大 3,400 億ドルの利益を得る可能性があります。
  • 倫理的課題: AI の偏見を防ぎ、透明性を確保し、顧客の信頼を維持することが重要です。

銀行は、進化する規制を遵守しながら、取引監視、リスク評価、自動レポートなどのタスクに AI を使用して、イノベーションと責任のバランスを取る必要があります。コンプライアンスを維持することは、単に法的に必要なだけではなく、急速に変化する業界で競争力を維持する方法でもあります。

スタンダードチャータード銀行: AI を活用した規制報告の実践

2025年の銀行規制

2025 年までに、従来のコンプライアンス ルールが新たな AI フレームワークによって強化されるため、銀行の規制環境はますます複雑になります。金融サービスにおける AI の急速な導入は規制の進歩を上回っており、金融機関は進化する法的基準をどのように満たすかに苦戦しています。 2024 年 9 月の時点で、米国の 48 の州および管轄区域が AI を規制する法案の起草を開始しており、金融機関に合わせたガバナンスの枠組みを確立する全国的な取り組みの兆候となっています。この変化は、銀行が対処しなければならないコンプライアンスのいくつかの重要な領域を浮き彫りにします。

主な規制分野

銀行は現在、マネーロンダリング対策(AML)、顧客確認(KYC)、AI倫理などの分野でAIが統合されたプロセスを管理する任務を負っている。これらの分野では、各機関が AI ツールが正確さ、公平性、透明性に関する厳しい要件を満たしていることを保証することが求められます。

新しい AI 倫理規制では、公平性、透明性、セキュリティが強調されています。金融機関は、自社の AI モデルにバイアスがなく、意思決定プロセスを規制当局に説明できることを証明する必要があります。

Data protection laws have also evolved to address AI-specific challenges. Updates to the Gramm-Leach-Bliley Act (GLBA) and California’s CCPA/CPRA now impose stricter limits on how banks collect, store, and use customer data for AI purposes. These laws, along with global privacy regulations, significantly shape how financial institutions handle data.

経済的なリスクは高いです。マッキンゼーは、生成 AI が生産性の向上を通じて世界の銀行セクターに年間 2,000 億ドルから 3,400 億ドル貢献する可能性があると推定しています。同時に、AI のコンプライアンスと実装への支出は急増すると予測されており、Statista によると、2024 年の 60 億ドルから 2025 年には 90 億ドルに達し、2030 年までに 850 億ドルに達する可能性があります。これらの数字は、厳しい規制を遵守することが財務に与える影響を浮き彫りにしています。

銀行向けの国際 AI 標準

For banks operating across borders, international AI standards add another layer of complexity. Compliance isn’t limited to domestic regulations; institutions must also navigate the laws of every jurisdiction where they operate, creating a multifaceted challenge.

Gartner reports that half of the world’s governments now require enterprises to adhere to a variety of laws, regulations, and data privacy standards to ensure AI is used responsibly. For multinational banks, this means developing adaptable AI systems that comply with diverse regulatory frameworks while maintaining consistent performance.

透明性と説明可能性も引き続き重要な優先事項です。高リスクの AI システムは市場投入前の厳格な評価に直面しており、銀行は従来不透明なアルゴリズムがどのように意思決定を行うかを明確にすることが求められています。

コンプライアンスの推進もイノベーションを推進しています。 AI 資産、リスク、規制要件のリアルタイム監視は今や不可欠であり、規制テクノロジー (RegTech) ソリューションの広範な採用を促しています。現在、金融機関の 90% がこれらのツールを使用してコンプライアンスを管理しています。

今後、規制当局は、特にデータ保護やサイバーセキュリティなどの分野で、さらに厳しい要件を課すことが予想されます。これに対応するために、銀行は、データ ソースの追跡可能性、企業の説明責任、堅牢なプライバシーとセキュリティ対策などの重要な問題に対処する持続可能なモデルを開発する必要があります。

AIを活用したコンプライアンス

銀行は規制要件の迷路を乗り越えるために AI にますます注目しています。サイバー犯罪は世界経済に年間 6,000 億ドル (世界 GDP の約 0.8%) の損害を与えており、2021 年第 1 四半期の詐欺行為は前年比 149% 急増しており、リスクはかつてないほど高まっています。 2022 年には、金融機関の半数以上が AI を活用した不正検出システムを導入し、誤検知を 70% も削減することができました。これらの AI ソリューションは、トランザクション監視、自動レポート、リスク評価などの主要なコンプライアンス分野も変革しています。

AIトランザクション監視

AI を活用したトランザクション監視システムは、時代遅れのルールベースの方法に取って代わりつつあります。これらのシステムは、マネーロンダリング対策 (AML) およびテロ資金供与対策 (CTF) 法に準拠しながら、大量のデータセットをリアルタイムで分析し、人間のアナリストが見逃してしまう可能性のある疑わしいパターンを特定します。たとえば、American Express は高度な LSTM モデルを使用して不正検出率を 6% 向上させ、PayPal は AI システムによりリアルタイムの不正検出を 10% 向上させました。

効果的なトランザクション監視には、リスクベースのアプローチが不可欠です。これは、銀行固有のリスク プロファイルに合わせて監視ルールとアラートしきい値を調整することを意味します。機械学習と行動分析はこれらのシステムをさらに強化し、従来の方法では見落とされがちな異常を検出します。 2021 年、Holvi は ComplyAdvantage と提携して、AI 主導のリスク検出を実装しました。このパートナーシップにより、Holvi は高リスクのアラートに優先順位を付けることができ、チームの効率が大幅に向上しました。

"The implementation of Smart Alerts was the smoothest implementation of tech that we have ever experienced. We did not experience any downtime or any interruption of business operations – not even for a second." – Valentina Butera, Head of AML & AFC Operations, Holvi

"The implementation of Smart Alerts was the smoothest implementation of tech that we have ever experienced. We did not experience any downtime or any interruption of business operations – not even for a second." – Valentina Butera, Head of AML & AFC Operations, Holvi

自動コンプライアンスレポート

AI はまた、文書の準備を自動化し、エラーを減らし、提出を迅速化することにより、コンプライアンス報告に革命をもたらしています。これらのシステムは、テキストベースのレポートを生成し、重要なセクションを特定し、コンプライアンス関連のクエリに対処するように設計されています。たとえば、スタンダードチャータード社はAIを活用して取引監視を強化し、不審な行為をより迅速に検出する一方、UBSはAIチャットボットを採用してコンプライアンス担当者が手順に関する情報を常に入手できるようにしています。

Grant Thornton Advisory Services は、特定のリスク定義とコンプライアンスのニーズに合わせた生成 AI ツールを開発しました。このツールは、リスクと管理のフレームワークのギャップを特定し、改善のための的を絞った推奨事項を提供します。

"AI tools are useful in creating and testing Compliance Management System (CMS) programs because they can quickly match the most recent guidance provided by regulators to the bank's CMS plan and monitoring routines and ensure they align with any new or updated regulations." – Leslie Watson-Stracener, Managing Director and Regulatory Compliance Capability Leader, Grant Thornton Advisors LLC

"AI tools are useful in creating and testing Compliance Management System (CMS) programs because they can quickly match the most recent guidance provided by regulators to the bank's CMS plan and monitoring routines and ensure they align with any new or updated regulations." – Leslie Watson-Stracener, Managing Director and Regulatory Compliance Capability Leader, Grant Thornton Advisors LLC

AI’s role in compliance reporting goes beyond document creation. It assists with transactional testing for regulations like HMDA, TILA, and the Flood Disaster Protection Act by identifying exceptions and automating data entry. However, banks must validate data and maintain strong board oversight of AI practices to ensure regulatory alignment. Beyond reporting, AI plays a critical role in assessing overall compliance risk.

AIリスク評価

AI 主導のリスク評価システムは、大規模なデータセットをリアルタイムで分析し、コンプライアンス リスクを示す可能性のあるパターンや異常を検出します。これらのシステムは、制御設計と評価プロセスの一部も自動化し、運用効率を向上させ、コンプライアンス対策に対する信頼を強化します。これらの進歩により、銀行のリスク評価フレームワークが強化されます。

現在、金融機関の 44% が、AI がリスク管理を強化する可能性を認識し、不正検出やセキュリティなどの分野への AI 投資を優先しています。しかし、BioCatchの調査によると、2023年に金融機関の51%がAI関連の詐欺やサイバーセキュリティの脅威により500万ドルから2,500万ドルの損失を経験したことが明らかになりました。金融機関の73%がAIによってデジタルエクスペリエンスを向上できると信じている一方で、54%がその影響について懸念を表明しており、金融データがAIによって処理されることに安心感を感じている消費者は半数未満です。

AI リスク評価を効果的に行うために、銀行は AI モデルの透明性と説明可能性を維持し、進化する規制との整合性を保つための堅牢なガバナンス フレームワークを必要としています。データセキュリティ、コンプライアンス、サードパーティの監視に関するポリシーも同様に重要です。生成 AI ツールは、例外を特定し、現在の規制ガイドラインに沿ってデータ入力を自動化することで支援できます。必要に応じて人間の専門家が介入できるレビューおよびオーバーライドのメカニズムを組み込むことで、リスク管理に対するバランスのとれた人間参加型のアプローチが保証されます。

コンプライアンスワークフローの合理化を検討している銀行にとって、prompts.ai (https://prompts.ai) のようなプラットフォームは、リアルタイムのコラボレーション、自動レポート、マルチモーダル AI 機能を提供して、規制順守を簡素化します。

倫理的な AI の実装

銀行がコンプライアンスを合理化するために AI を導入する場合、それを倫理的に実装することも同様に重要です。エシカル AI は、規制基準を満たしながら顧客の信頼を維持するために重要な公平性、透明性、説明責任を保証します。 2023 年に金融機関は AI テクノロジーに 350 億ドルを投資し、2027 年までにこれが 970 億ドルに増加するとの予測があります。

しかし、コストや技術スキルの制限に加え、倫理的な課題により、生成型 AI の導入が妨げられることがよくあります。 KPMG によると、責任ある AI (RAI) 原則を確立している銀行は 50 行中 16 行のみであり、AI の使用と倫理的枠組みとの間にギャップがあることが浮き彫りになっています。このギャップは、銀行とその顧客の両方にリスクをもたらします。

AI バイアスの防止

銀行業務における AI のバイアスは、特に融資や与信の決定において深刻な結果を招く可能性があります。 2021年の連邦準備理事会の調査では、住宅ローン引受に使用されている一部のアルゴリズムシステムが、少数派の借り手からの申請を非少数派よりも高い金利で拒否していたことが明らかになった。消費者金融保護局長のロヒット・チョプラ氏は、これを「デジタルレッドライニング」と「ロボット差別」と呼んだ。

銀行 AI システムは、次のようないくつかの種類のバイアスに対して脆弱です。

2023 年、iTutorGroup は、同社の AI システムが年齢のみに基づいて数千人の求職者を除外したことにより、米国雇用機会均等委員会からの訴訟に直面しました。これはバイアスの法的および運用上のリスクを示しています。

バイアスに対処するために、銀行はデータ サイエンス、ビジネス、人事、法務部門にわたる多様なチームを構築するなどの戦略を採用する必要があります。 AI モデルの定期的な監査、透過的なアルゴリズム開発、データ ドリフトの監視も不可欠です。さらに、多様なデータセットを使用し、ガバナンス構造を組み込むことで、バイアスを効果的に軽減できます。

AI の透明性要件

透明性は銀行 AI の信頼を構築する鍵となります。米連邦準備制度理事会のラエル・ブレイナード総裁が指摘したように、一部のアルゴリズムは非常に複雑なので、その作成者ですら決定を説明するのに苦労する可能性があります。信頼性を確保するために、金融機関は AI 出力を説明可能かつ公平にし、進化する規制に準拠する必要があります。

__XLATE_25__

JPモルガン・チェースのAIおよび機械学習プラットフォーム製品責任者、ブライアン・マーハー氏

「予期せぬバイアスなどの事象から守る説明可能な AI、責任ある AI、倫理的 AI などは、もはやオプションとみなされなくなり、ML/AI を活用する企業、特に顧客の個人データをホストする企業には必須と見なされています。」

  • JPモルガン・チェースのAIおよび機械学習プラットフォーム製品責任者、ブライアン・マーハー氏

銀行は、AI に関する決定を徹底的に文書化し、規制当局と顧客の両方に対するデータソース、アルゴリズム、パフォーマンス指標を詳細に記録する必要があります [40、44]。 「デジタル倫理と銀行業務」に関するデロイトのレポートによると、顧客はデータの目的、データの使用方法、データが自分たちにどのような利益をもたらすかを理解している場合、データを共有することに前向きになることがわかりました。実際的な手順には、説明可能な AI 技術の導入、定期的な監査の実施、意思決定プロセスの明確な文書の維持などが含まれます。意思決定トレーサビリティ ログ、信頼スコア、ユーザーフレンドリーなパフォーマンス指標などのツールも、技術的利害関係者と非技術的利害関係者との間のギャップを埋めるのに役立ちます。

構造化された監視により、これらの透明性措置がさらに強化され、あらゆる段階での説明責任が確保されます。

AIの監視と制御

AI を責任を持って管理するには、効果的な監視が不可欠です。 AI の使用が増加しているにもかかわらず、55% の組織には AI ガバナンス フレームワークが不足しており、70% 近くが今後 2 年間でガバナンスへの投資を増やす予定です [40、41]。マッキンゼーは、一元化された AI ガバナンスを備えた企業は、責任を持って効果的に AI を拡張する可能性が 2 倍高いと指摘しています。

Governance should start with senior leadership and include a dedicated AI ethics committee. As Charlie Wright from Jack Henry emphasized, "When it comes to AI, compliance and accountability are more than regulatory obligations – they are commitments to your accountholders' trust and the integrity of your financial institution".

成功するガバナンス フレームワークの重要な要素には、AI イニシアチブを提出、レビュー、承認するための集中プロセスと、リスクを特定して軽減するための自動化されたワークフローが含まれます。人間による監視は引き続き不可欠であり、銀行は AI トレーニング プログラム、部門横断的な教育、AI リスクに関するオープンな議論を提供する必要がある [33、45]。

The Apple Card controversy in 2019 serves as a cautionary tale. Apple and Goldman Sachs faced backlash when the card’s algorithm allegedly assigned lower credit limits to women compared to men with similar financial profiles, prompting an investigation by New York’s Department of Financial Services. To prevent such incidents, banks should implement tools to detect and quantify bias, measure fairness using metrics like equalized odds, and flag problematic training data or model features.

Prompts.ai のようなプラットフォームは、自動レポートとマルチモーダル AI ワークフローを提供し、銀行が AI ライフサイクル全体にわたって透明性と説明責任を維持できるようにします。倫理的配慮を優先することで、銀行はイノベーションと規制遵守および顧客の信頼を調和させることができます。

将来の規制の計画

AI コンプライアンスに対する先進的なアプローチを開発することは、単なる良いアイデアではなく、長期的な成功のために不可欠です。銀行業務における AI の規制環境は急速に進化しており、金融機関はこうした変化を先取りする必要があります。アルカミ社の最高コンプライアンス責任者であるデニス・アーウィン氏は次のように述べています。

__XLATE_34__

コンプライアンス責任者は、今後数年間の規制変更に備えながら、現在のリスクを軽減する方法を評価する必要があります。

機械学習は銀行業界の市場全体の 18% を占めており、規制計画に積極的に取り組むことは、コンプライアンスだけでなく、競争力を維持することにもつながります。

この変化する状況の中で成長したい銀行は、小規模な AI パイロット プロジェクトから包括的な全社規模の戦略に移行する必要があります。この移行により、効率を犠牲にすることなく新しい規制に適応できるようになります。進化可能なシステムを構築し、優れた運用を維持しながらコンプライアンスを確保することに重点を置く必要があります。

新しい規制の追跡

規制の変更に対応するには、計画的かつ組織的なアプローチが必要です。たとえば、まもなく発効する EU AI 法は、世界的な規制基準を形成すると予想されています。国境を越えて事業を展開している銀行にとって、AI への取り組みに影響を与える可能性のある国内および国際両方の規制について常に最新の情報を入手することが重要です。

これを行うには、銀行は規制の最新情報を追跡する専門のチームを設立する必要があります。これらのチームは、連邦準備制度、通貨監督庁、消費者金融保護局などの主要な規制機関のほか、国際機関やデータプライバシー当局からの発表を監視する必要があります。細心の注意が必要な領域には、ガバナンスのフレームワーク、専門知識の要件、モデルのリスク管理、サードパーティの AI プロバイダーの監視などが含まれます。潜在的な影響、タイムライン、必要な組織調整に基づいて規制変更を分類するシステムを導入することは、各機関が先を行くのに役立ちます。

システムの最新化

AI 時代における規制遵守に対する最大の障害の 1 つは、時代遅れのテクノロジーです。レガシー システムは銀行の AI プロジェクトの拡張能力を制限する可能性があるため、最新化が緊急の優先事項となっています。クラウドベースのインフラストラクチャへの移行とデータ システムのアップグレードにより、コンプライアンス向上への道が開かれます。

データ プラットフォームを最新化することで、銀行は規制当局が必要とするリアルタイムのモニタリング、監査証跡、文書化を確実に提供できるようになります。このプロセスは単なる新しいテクノロジーに関するものではなく、AI への取り組みをビジネス目標に合わせるためのものです。各 AI アプリケーションを個別に評価して、そのリスクと利益を評価する必要があり、AI モデルのライフサイクル全体を通じて部門横断的なチームが関与する必要があります。

Prompts.ai のようなプラットフォームは、自動レポートやマルチモーダル AI ワークフローなど、こうした取り組みを簡素化するツールを提供します。従量課金制のインフラストラクチャと大規模な言語モデルとの相互運用性により、銀行はシステムを全面的に改修することなく規制の変更に適応できます。

柔軟なコンプライアンス手順

不確実な規制の世界では、柔軟性が鍵となります。 Stratyfy の共同創設者兼 CEO である Laura Kornhauser 氏は次のように説明しています。

__XLATE_44__

柔軟なコンプライアンス フレームワークの開発は、すべてのルール変更を予測することではありません。それは、情報を常に入手し、モジュール型ポリシーを活用し、シナリオに基づいた評価を実施し、規制当局と積極的に関与することです。

銀行は、新しい規制に適応できるモジュール型のポリシーを採用し、さまざまな結果に備えてシナリオベースの評価を実施し、事前のリスク管理を実証するために詳細な監査証跡を維持する必要があります。コンプライアンスの変更を文書化することは、透明性と説明責任のために不可欠です。

規制当局と直接関わることも重要なステップです。 AI プロジェクトの展開の早い段階で規制当局に関与することで、銀行はフィードバックを収集し、自らの取り組みを規制当局の期待に合わせて調整し、信頼を築くことができます。

Grant Thornton Advisors LLC のマネージングディレクターである Leslie Watson-Stracener 氏も、取締役会の監督の重要性を次のように強調しています。

__XLATE_49__

取締役会が AI の実践を監督していることを常に確認してください。そして結果をテストしてください。 AI ツールがデータの分析や情報の比較という重労働を行っている場合でも、サンプリングと異常のチェックをプロセスに組み込む必要があります。

結局のところ、柔軟なコンプライアンス手順は単に規制を遵守するだけではなく、競争力を維持することにもつながります。コーンハウザーは次のように述べています。

__XLATE_52__

規制の変化に対処するには、単にコンプライアンスを遵守するだけではなく、競争力を維持することが重要です。

結論

AI を銀行業務に統合するには、イノベーションの採用と責任の維持との間で慎重なバランスが必要です。機械学習は現在銀行市場の 18% を占めており、コンプライアンスを後回しに扱うことは決して選択肢にはありません。銀行は、サードパーティの AI モデルを活用する場合でも、規制を遵守する最終的な責任を負います。モデルリスク管理に関する省庁間声明は、この点を強調しています。

__XLATE_55__

「銀行は、たとえサードパーティのモデルを使用することを選択したとしても、BSA/AML 要件に準拠する最終的な責任を負います。」

AI の導入には倫理的な課題も立ちはだかります。 KPMGの報告書によると、倫理、コスト、技術的専門知識などの問題が最大のハードルとなっている。認識が高まっているにもかかわらず、調査対象となった 50 銀行のうち責任ある AI の原則を導入しているのは 16 銀行のみであり、認識と行動の間にギャップがあることが明らかになりました。この溝を埋めるために、銀行はトレーニング、テスト、監視、監査などの主要なコンプライアンス対策を自社の AI 戦略に組み込む必要があります。業界リーダーは、特に顧客の機密データを扱う場合、説明可能で責任ある倫理的な AI 実践の重要性を強調しています。これらの倫理的優先事項は、強力で適応性のあるガバナンスがもはやオプションではないことを明らかにしています。

強固なガバナンスの枠組みを構築することが不可欠です。取締役会はAIへの取り組みを積極的に監督し、説明責任と規制上の期待との整合性を確保する必要があります。規制が進化するにつれて、銀行は厳格な監視を維持しながら柔軟性を維持する必要があります。

チャーリー・ライトはこの責任の本質を次のように捉えています。

"When it comes to AI, compliance and accountability are more than regulatory obligations – they are commitments to your accountholders' trust and the integrity of your financial institution".

"When it comes to AI, compliance and accountability are more than regulatory obligations – they are commitments to your accountholders' trust and the integrity of your financial institution".

よくある質問

銀行は、意思決定において AI システムが公正で偏りのないものであることをどのようにして確保できるでしょうか?

AI の意思決定が公正で公平な状態を保つために、銀行は責任ある AI フレームワークを実装する必要があります。このアプローチでは、公平性、透明性、プライバシーなどの原則が優先されます。また、性別、民族性、社会経済的背景などの要因に関連する意図しない差別のリスクを軽減するために、多様なデータセットを使用することも強調しています。

さらに、銀行は明確なガバナンス ポリシーを作成し、AI システムの定期的な監査を実施するために学際的なチームを編成する必要があります。これらの監査は、潜在的なバイアスを発見して対処し、規制要件と倫理基準の両方への準拠を確保するために不可欠です。説明責任と継続的な改善に取り組むことで、銀行は AI システムに対する信頼を強化し、すべての顧客に対する公平な扱いを保証できます。

AI システムがさまざまな地域にわたる国際規制に準拠していることを確認するには、銀行はどのような措置を講じるべきでしょうか?

To navigate international regulations effectively, banks need a clear plan for managing AI systems. Start by building a strong AI governance framework. This framework should guide compliance efforts and ensure alignment with both local and international standards. It’s a good idea to set up specialized teams or committees to handle regulatory requirements and oversee AI-related activities.

Regular risk assessments are another key step. These help identify potential regulatory hurdles and assess how AI systems influence operations in different regions. Pair this with ongoing monitoring and auditing of AI models to confirm they’re working as intended and staying compliant with evolving rules. Keeping decision-making processes transparent and maintaining thorough documentation can also help demonstrate compliance to regulators.

これらの措置を講じることにより、リスクが軽減されるだけでなく、規制当局との関係が強化され、国境を越えた円滑な業務がサポートされます。

銀行は AI を使用して、顧客の信頼とデータ プライバシーを確​​保しながらイノベーションを推進するにはどうすればよいでしょうか?

銀行は、堅牢なデータ ガバナンス フレームワークを設定し、その適用における透明性を確保することで、AI の可能性を活用できます。これは、法的問題を回避するだけでなく、顧客の信頼を得るために、規制要件を遵守することを意味します。顧客の同意を優先しながら、データの収集と使用に関する明確なルールを確立することは、機密情報を保護する上で重要な役割を果たします。

プライバシー最優先のアプローチをとることは、銀行に競争力を与え、市場での評判を高めることにもつながります。倫理的な AI 実践に取り組み、AI システムを定期的に監視することで、金融機関はイノベーションと顧客データを保護する責任との間で適切なバランスをとることができます。このアプローチにより、AI を活用した取り組みの中心に信頼が保たれます。

関連するブログ投稿

  • リアルタイム AI がワークフロー内のエラーを検出する方法
  • AI を活用した HDR ビデオ: その仕組み
  • ユーザー定義の前処理モジュールの説明
  • スポーツ活動認識のためのディープラーニング: 概要
SaaSSaaS
引用

Streamline your workflow, achieve more

Richard Thomas