リスクを過度に恐れて、導入を躊躇していないか(2)             (Harvard Business Review要約)

生成AIは自社の仕事に いかなる影響を及ぼすか

• 生成AIに関する予測は多く行われているが、実際には生成AIが実行または支援できる認知的タスクについて考えることがより有益である。
• オープンリサーチとオープンAIの共同調査では、O*NETデータベースを基にして、生成AIが質を落とさずに速度を倍増できる業務を特定した。
• この調査により、米国の労働者の90%が担当する業務の少なくとも10%が生成AIの影響を受け、1%の労働者は半分以上が影響を受けることが明らかになった。
• 「生成AIの影響を受ける」とは業務が自動化されるという意味ではなく、人間の生産性や創造性を向上させることが多い。


• プログラマーは生成AIを利用してコードのドラフト作成を効率化しているが、生成AIには適さない業務も多く存在する。
• ビジネスリーダーはこの調査アプローチを採用することで、組織内で生成AIを導入すれば最も生産性を高められる部分を特定できる。
• 実行可能な行動計画の立案には、知識労働を伴う仕事の棚卸し、生成AIの利用可能性の評価、優先順位の決定という3段階のプロセスが必要。
• 現在利用可能なLLMは、特定のタスクに長けているが企業の内部知識には精通していない「有能だが世間知らずのアシスタント」として機能する。
• 特定の内部知識を利用したい場合、企業は「既製」の生成AIを他のシステムと組み合わせることが一般的である。
• 生成AIプロジェクトの費用は、お金や時間、そして逸した機会の合計であり、既製のLLMは比較的安価に導入できるが、統合が必要な場合はコストが増える。
• 現時点での生成AIプロジェクトは特定業務の改善に焦点を当てているが、技術が成熟し経験が蓄積されるにつれてビジネスプロセス全体への応用が広がる。
• 成功を収める企業のデジタル戦略において、生成AIが大きな役割を担うことが予測される。

「作話」の問題に対処する

・生成AIの「情報を捏造するおそれ」への対応として、このテクノロジーの利用を避けるのでは

なく、保護対策を講じるべきである。
・マルチレベルのLLM構築または単独のLLMを他のシステムと組み合わせることで、生成AIによる作話のリスクを最小限に抑えることが可能である。
・企業は、LLMが特定のユーザー要求に対して適切な対応を行えるよう、異なる方針を採用することが重要である。
例えば、グーグルのLLM「バード」は、特定の問題に対する正解を導くためにアルゴリズムを記述し、その結果をユーザーに提供している。
・顧客サービス改善プロジェクトでは、オンラインチャットを監視するためにLLMが導入され、その返信内容はコンテキスト内学習システムが作成している。
・ユーザーはLLMの出力を鵜呑みにせず、マーケターやソフトウェアエンジニアは生成AIの結果を確認し、目的に合致するかを判断する必要がある。
・医師はLLMを活用してカルテを作成し、診察時のカルテ作成にかかる時間を大幅に短縮できるようになったが、最終的な確認は必要である。
・業務によっては、生成AIの僅かな関与すらリスクが高すぎると判断される場合もあり、完全に任せることは避けられるべきである。
例として、処方箋作成では、生成AIによる助けを借りても、医師による注意深い確認が不可欠である。
・安全性がそれほど重要でない業務であっても、LLMが作話を行う傾向にあるため、使用を避けるべきと判断されることがある。
・筆者の一人は、チャットGPTによる文末脚注のまとめで、出力された参考文献の一部に誤りがあることに気づき、LLMを使用するよりも手動で作成する方が効率的であると結論付けた。