Transcript
Ellie Tehrani
ようこそ The Elusive Consumer へ。今日は Ilyas Iyoob, Head of Global Research at Kyndryl をお迎えしています。お越しいただきありがとうございます。
Ilyas Iyoob
招いていただきありがとうございます。
Ellie Tehrani
まず、あなたの経歴に入る前に、Kyndryl がどのような会社なのか、そしてあなたの役割がその中でどこに位置しているのかを、簡単に説明していただけますか?
Ilyas Iyoob
もちろんです。Kyndryl は世界最大のITサービスプロバイダーです。世界の大手銀行、航空会社、病院など、多くの企業の技術やデータは Kyndryl のデータセンターを通じて動いています。もともとは IBM の一部でしたが、数年前にスピンオフしました。一部の人は「200億ドル規模のスタートアップ」と呼んでいます。スピンオフ後、私はGlobal Head of Researchとしてチームを率いており、顧客のために新しいテクノロジーを常に監視し、テストし、検証し、構築して、クライアントが競争力を保てるよう支援しています。
Ellie Tehrani
理解しました。今日はAIや新しいテクノロジーについてたっぷりお話ししたいと思いますが、その前に、あなたが最近投稿されたAIに関する言葉を引用したいと思います。
あなたはこう書いています——
「AIはあなたの役割を奪うライバルではなく、新人選手(ルーキー)だ。スピードと精度、無限のエネルギーを持つが、経験はゼロ。ニュアンスや裏技、『本当に仕事を進める方法』を知らない。だからこそ、人間の出番がある。最も優れたチームは、ただ速く走るのではなく、バトンを渡すタイミングを知っている。AIは私たちの時間と集中力を奪う部分を引き受け、人間の判断力や創造性、戦略が最も重要な部分で私たちを前に進ませる。」
この考えについて、もう少し詳しく教えていただけますか?
Ilyas Iyoob
もちろんです。多くの人が、人間の知的能力とAIの自動化とのバランスの重要性を理解していると思います。AIがどれだけ進化しても、人間の果たすべき役割は常に存在します。最も優れた組織は、その線をどこに引くべきか、どの目的で使うべきかを理解しています。
たとえば、私の友人の話です。彼は新しいエスプレッソマシンを買ってとても興奮していました。私はコーヒー好きですが、そこまでではありません。その友人はマシンを買った途端、コーヒー豆やカプセルなどの広告が次々に出てきたと言うんです。けれど彼はこう言いました——
「正直、そんな広告よりも、美味しい淹れ方のコツや、バリスタのマスタークラスの案内リンクがあった方が嬉しかった。」
つまり、消費者を“旅”に連れていくような体験が欲しかったわけです。
これは消費者の例ですが、企業にも同じことが言えます。どこにでもGen AIを適用すればいいわけではありません。共感や感情が必要な場面では人間が対応すべきです。一方で、繰り返しの多い作業はAIが担えますが、それも“なぜ繰り返しているのか”を理解した上で使うべきです。
そして最終的には、AIによる効率化だけでなく、顧客に素晴らしい体験を届けるというバランスが大切です。
Ellie Tehrani
なるほど。その「どこに自動化を使い、どこに人間のインサイトを活かすか」という見極めは、まさにカスタマーエクスペリエンスの核心ですね。では、あなたのAIとの出会いについて伺いたいのですが、AIや消費者行動の理解に興味を持ったきっかけは何だったのでしょう?
Ilyas Iyoob
実は私はもともとプロアスリートだった…なんて話ができたら良いんですが(笑)。実際には応用数学を専攻し、University of Texas で博士号を取得しました。当時は“データマイニング”や“アナリティクス”“最適化”などと呼ばれていました。つまりAIとはずっと関わってきた分野なんです。
その経験から、どの分野でAIが効果を発揮するか、しないかを見極める力がつきました。AIはツールボックスの中の1つのツールにすぎません。状況によっては他の分析手法や最適化技術の方が優れていることも多いのです。私たち Kyndryl Research ではAIだけでなく、量子コンピューティングやデジタルツインなども扱っています。数学的視点から全体を見渡すことで、どのツールをどこで使うべきか判断できるのです。
Ilyas Iyoob
分析ツールの中には、AIよりも優れているものもあります。プログラミング的なツールや、機械学習ツール、遺伝的アルゴリズムよりも最適化・数理計画法の方が適している場面もあります。ですから、自分のバックグラウンドによって使い分けを理解することが重要です。
Kyndryl Research にはAIだけでなく、量子コンピューティングやデジタルツインなど複数の領域があります。応用数学の出身として、私は全体のスペクトラムを見渡し、どのツールをどこで使うべきかを判断できる立場にあります。
「手にハンマーしかなければ、すべてが釘に見える」とよく言われますが、まさにその通りです。私は早い段階でスタートアップに関わる機会を得たことで、技術スキルだけでなくビジネススキルも身につけました。研究開発(R&D)から始まり、プロダクト開発、マーケティング、そして営業まで担当しました。クラウドコンピューティング分野で最初の契約を自ら成約した経験もあります。
その後、スタートアップが成熟し、買収の段階に入った際には、企業価値評価モデルや財務モデルも自分で構築しました。そして最終的にその会社は IBM に売却されました。このプロセス全体を通じて、技術的なスキルとビジネス的なスキルを統合的に磨くことができたのです。
Ellie Tehrani
あなたが言った中で印象的だったのは、AIを「ツールボックスの中のひとつ」と捉えている点です。多くの企業はAIを「スイスアーミーナイフ(万能ツール)」と見ていますが、あなたはどう違うと考えていますか?
Ilyas Iyoob
まず、彼らの考えには一理あります。これまでAIは数あるツールの1つに過ぎませんでした。しかし、OpenAI がシンプルなチャットインターフェースを導入したことで、誰もが簡単に利用できるようになり、大衆化しました。
その意味では、確かにAIはスイスアーミーナイフ的な存在になりました。私たちは仕事、旅行、チケット予約など、さまざまな用途でAIに頼るようになっています。
ただし、「ナイフを持って銃撃戦に行くな」という言葉もあるように、用途を間違えると危険です。特に私たち Kyndryl のような大規模エンタープライズを扱う企業にとっては、AIの誤作動が致命的な結果を招く可能性があります。たとえば、誤った広告を出す程度の問題なら影響は小さいですが、航空機の着陸装置がAIの判断ミスで作動しなかったら大問題です。
したがって、企業でAIを使う際は「ガードレール」を設け、誤差を最小限に抑える設計が必要です。そうすることで、AIをエンジンの一部として安全に活用することができます。
Ellie Tehrani
確かに、信頼性は非常に重要ですね。もう一つお聞きしたいのですが、あなたは学術、VC、そしてさまざまな業界で経験を積まれています。これらの分野の違いが、プロダクト開発への考え方にどのような影響を与えたのでしょうか?
Ilyas Iyoob
一方では、スタートアップからのピッチを受ける側として、多くの「GenAIでこれを解決しました」という話を聞きます。それ自体は素晴らしいのですが、同時に私は常に考えます——「それを作った後、どう展開するのか?」と。
導入先や持続性を考えないと、すぐに他社が自動化してしまいます。今やイノベーションの寿命は非常に短い。ですから、プロダクト完成前から収益化の戦略を考える必要があります。
企業側の視点では、スタートアップでの学びを活かし、「フロント(ユーザー側)」ではなく「バックエンド(内部)」でAIを活用する方が成果が出やすいと分かりました。
たとえば、あるチームは過去の契約書データを使い、次のRFP(提案依頼書)への回答を自動生成するツールを構築しました。しかし、それを顧客側に開放するのではなく、社内で活用し、精度を上げた上で人が最終調整して提出する。この方法の方が効果的です。
コード開発も同じです。AIをコード作成だけでなく、テストや品質保証にも使い、最終的に完成した堅牢なコードだけをユーザーに届ける。
つまり、「速く動くこと」は大事ですが、「どこで速く動くか」を見極めることがより重要なのです。
GenAIの不安定さも、目的次第では利点になり得ます。創造性を求める場面では変化が価値になりますが、コード実行では一貫性が命です。これが、AI導入におけるバランスの本質です。
Ilyas Iyoob
スタートアップ側では、私たちは多くの革新を目にしますが、その革新の寿命はどんどん短くなっています。ですから、「どう収益化するか」を早い段階で考えなければなりません。
一方、エンタープライズ側では、スタートアップの動きを見ているため、裏側でツールを活用する方が成果が出やすいと分かってきました。
たとえば、あるチームでは、社内の非公開ドキュメントを読み込み、将来の契約書対応をスピードアップするためにAIを使っています。RFP(提案依頼書)への回答をAIで生成し、それを人がレビューして洗練させる。そうすることで、顧客やプロジェクトの文脈を踏まえた高品質な提案を短時間で完成させることができます。
同じように、コード開発でもAIがコードを書くこと自体は簡単ですが、AIをテストや品質検証にも活用することで、最終的にエラーのない状態でユーザーに提供することができます。
つまり、「速さ」は重要ですが、「正しい場所で速く動く」ことが本当の競争優位になります。エンドユーザーにはAIの不安定さを見せず、安定性を担保した状態で届けるのが理想です。
ちなみに、AIが常に同じ回答を出す必要はありません。創造的なやりとりでは、多少の“揺らぎ”がむしろ価値になる。しかし、コードのような精密さが必要な分野では、一貫性が求められます。
これが、スタートアップや学術研究から得た教訓を企業に応用する際の考え方です。ミッションクリティカルな領域では、誤差の許容範囲はゼロに近づけなければなりません。
Ellie Tehrani
業界全体で見ると、AIの導入や消費者インサイトへの活用において、先行している分野・遅れている分野はありますか?
Ilyas Iyoob
Kyndryl は金融業界のクライアントが多いため、銀行や保険などデータを豊富に持つ産業がやはり先行しています。こうした業界は、AI登場以前からすでにデータ分析をしていたため、AI導入が自然でした。
一方で、医療分野のようにデータはあっても運用が難しい産業は、いまだに課題が多いです。たとえば、診察時のメモを自動的に取ったり、電子カルテ(EHR)に適したフォーマットで入力したりするAIツールが登場していますが、導入はまだ限定的です。
政策面での整備が進まなければ、本格的な普及には至らないでしょう。
Ellie Tehrani
確かに、データを多く持つ業界ほどAIを活かしやすいですね。では、AIが研究のあり方をどのように変えたと思いますか? 従来のリサーチでは見つけられなかったような“意外な発見”があったら教えてください。
Ilyas Iyoob
従来の研究は、どのトピックがどれだけメディアや学術誌で注目されているかに左右されがちでした。つまり、話題になったテーマほど多くの研究が引用され、注目される。
しかし、GenAI の登場によって、これまで埋もれていた小規模な研究や、トップジャーナルで発表されなかった論文を容易に見つけられるようになりました。つまり、研究の“ロングテール”を拾えるようになったのです。
また、AIは地理的なバイアスも取り除きます。どこの国で誰が書いたかはもはや関係ありません。世界中のコードや論文を横断的に評価できます。これによって、スピードも精度も格段に向上しました。
さらに、私たちは現在 University of Waterloo と協力し、「量子耐性アルゴリズム(Quantum-safe algorithms)」のテストを行っています。
これは量子コンピュータによるハッキングへの耐性を持つ暗号技術を検証するプロジェクトです。従来であれば膨大な調査と分析に数週間かかるところを、AIによって数時間でベンチマーク比較できるようになりました。
こうした変化により、研究のスピードが劇的に向上しています。重複研究も減り、新しい成果が迅速に世界中に共有されるようになりました。
今後はデータリネージ(出典管理)が進むことで、正しい研究者に正しく功績が帰属されるようになると期待しています。
Ellie Tehrani
AIでも従来の研究でも、共通する課題の一つが「データを集めすぎて整理できない」ことですよね。どうすれば、企業は“意味のある消費者データ”を集め、単なる“データの山”にしないで済むと思いますか?
Ilyas Iyoob
実はこの問題は、GenAI 以前から存在していました。結局のところ、どれだけ技術が進化しても、「データに文脈を与える」作業は人間の責任なんです。
集めたデータを自社のビジネスKPI(重要業績評価指標)に関連づけてタグ付けする。ここをきちんと行わない限り、どんなにAIを使っても意味ある情報にはなりません。
AIによってこのタグ付けのスピードは上げられますが、最初の設計――つまり「何を価値あるデータとするか」を決めるのは人間の役目です。
本当に優れたデータサイエンティストは、データから手を離さない人たちです。彼らは自分のデータを完全に理解しており、どんな変化にも即座に気づきます。
AI業界の言葉でいう「フィーチャーエンジニアリング(特徴量設計)」も同じです。どのデータがどんな結果に結びつくのかを見抜くには、実際に手を動かしてデータを扱う経験が欠かせません。
ネイト・シルバーの著書『The Signal and the Noise』にもありますが、「ノイズの中からシグナルを見極める」ことがすべてです。AIはシグナルを強調することはできますが、「どれがシグナルか」を見抜くのは人間です。
したがって、ドメイン知識を持ち、実際にデータを触るデータサイエンティストに早い段階で投資することが、AI時代の成功につながります。
Ellie Tehrani
なるほど。では、次の質問です。短期的な“ブーム”と、長期的な“トレンド”をどう見分けるか。AIと人間、どちらの力をどう使えば、真の消費者トレンドを見抜けると思いますか?
Ilyas Iyoob
正直に言うと、今は以前よりもずっと難しくなっています。AIが生成した情報と人間の情報を区別するのは、どんどん困難になっているからです。
ただ、AIエージェントはここでも役に立ちます。わかりやすい消費者の例を挙げましょう。
私は最近、新しいランニングシューズを買おうと思っていました。長年 Brooks Running を愛用しているのですが、買い替え時期になるとブラウザや広告が自動的に次のモデルをおすすめしてくる。
もちろん、AIは私に最適な商品を提示してくれます。でも本当は、「どんな新しい技術が採用されているのか」「通気性や軽量性がどう進化したのか」も知りたいのです。
単なる“最適解”よりも、“なぜそれが良いのか”を理解したい。つまりAIには、情報の背景を伝える「教育的な説明力」も必要なのです。
そしてもう一つ、AIは結論を出すのが速すぎる傾向があります。私たちは即時的な満足を得られますが、ときには「少し待つこと」がブランド体験を高めることもあります。
例えば Solgaard というバックパックブランドをご存じですか? 頻繁に旅行する人に人気のブランドです。最近、彼らが Simon Sinek(著名なモチベーショナルスピーカー)監修の特別モデルを発売したんです。
その発表があまりに盛り上がって、数時間で完売しました。購入者は数週間も待たされましたが、その“待つ時間”がむしろブランドの期待感を高めたのです。
消費者行動の観点から見ると、AIはすぐに商品を届けることができますが、企業としては「体験をデザインする」ことが重要です。
時には、意図的に“待たせる”ことでブランドへの愛着を強めることができます。どの段階でAIにバトンを渡すか、その判断が鍵になります。
Ellie Tehrani
パーソナライゼーションの旅全体についてお聞きしたいのですが、個別化のニーズとプライバシーの懸念をどうバランスさせるかという課題があります。
今日の消費者は、「データを追跡されても、より良い体験を得られるなら構わない」と考える傾向にあると思いますか?
Ilyas Iyoob
その傾向は波のように変動します。
ある時期は、多くの人が「良い体験と引き換えに少しの情報を提供してもいい」と考えます。
でも、それが一般的になると今度は「いや、やっぱり出しすぎた」と感じて、データ共有を控えるようになる。
つまり、人々の意識は上がったり下がったりを繰り返しているんです。
今はちょうど「データを守りたい」という方向に振れている時期だと思います。
GPT が登場した直後、人々は利便性に惹かれてどんどん情報を入力していました。
しかし、その情報がどう使われているかを理解し始めた途端、警戒心が高まりました。
だからこそ、Kyndryl のような企業とパートナーを組むことが重要なんです。
私たちはセキュリティとプライバシーを後付けではなく、最初から前提として設計しています。
つまり、セキュリティは「追加要素」ではなく「デフォルトの条件」です。
もちろん、その分パフォーマンスや結果のスピードに影響が出ることもあります。
けれども、ミッションクリティカルな領域――たとえば金融や航空、医療のような分野――では、それが正しい選択です。
一方、冷蔵庫の中身の写真をAIに見せてレシピを提案してもらう、というレベルのことなら、多少の情報共有は問題ないかもしれません。
結局は「そのデータがどの程度重要か(mission criticalか)」によって、線を引くべきなんです。
Ellie Tehrani
なるほど。では、その「線引き」を行ううえで、人間の監督(oversight)はどんな役割を果たすべきだと思いますか?
AIエージェントがどんどん自律的になっている今、どの程度の監視が必要でしょうか?
Ilyas Iyoob
良い質問ですね。よく誤解されるんですが、自動化が進むほど“監視が減る”と思われがちなんです。
でも実際には、テストの「量」は減っても、テストの「重要度」はどんどん上がっています。
たとえば、1つのAIエージェントがコードを書き、別のエージェントがそのコードをテストし、
さらに別のエージェントがそのテストを検証し……と、層がどんどん重なっていく。
このとき、人間が関わる範囲は減るかもしれませんが、もしミスが発生したときのリスクは格段に大きくなる。
つまり、テストの頻度は減っても、「1回の判断ミスの重み」がどんどん大きくなるんです。
航空管制官(air traffic controller)を思い浮かべてください。
彼らの仕事は、ほんのわずかな判断ミスが致命的な事故につながります。
実際、私はアメリカの航空会社とプロジェクトを行った際、
「最も採用が難しい職種のひとつが航空管制官だ」と聞きました。
集中力と判断力のレベルが非常に高く、現代の“情報過多世代”ではなかなか代わりが見つからないのです。
これからの仕事も、そうした「高ストレス・高リスク評価型」の職種が増えていくと思います。
もちろん、将来的には人間のミスを補うより良いツールも登場するでしょう。
ですが、ミッションクリティカルな領域から“人間を完全に排除する”ことは、おそらく不可能です。
どれだけシステムが自律しても、人間が介入できる余地――
つまり“最後に手動で止めるスイッチ”は、常に残しておくべきなんです。
Ellie Tehrani
AIを導入する際、いつも話題になるのが「社内の抵抗」です。
ときには経営層から、ときにはチーム内から。
あなたは Kyndryl でエンタープライズ企業を、そしてVCではスタートアップを支援していますが、2025年の今でもAIに対して不信感や抵抗はあると感じますか?
Ilyas Iyoob
ありますね。特に「信頼」に関しての抵抗は今でも存在します。
ただ、それは悪いことではありません。
むしろ、健全な“懐疑心(healthy distrust)”は必要です。
誰かが新しいソリューションを作るなら、それを「まず疑う」のが当然です。
私はいつもこう言っています——
「今の時代、すべてのデータとコンテンツは“偽物だと思え”。
本物であることが証明されるまでは、信じるな。」
AIの世界も同じです。
何かを構築するなら、まず“有罪(=疑い)”からスタートし、
信頼を得るには“無罪を証明”しなければならない。
つまり、信頼は自動的に与えられるものではなく、証明して勝ち取るものです。
ただし、もう一つ面白い傾向があります。
多くのリーダーたちは仕事上では慎重ですが、個人レベルではすでにAIを積極的に使っているんです。
たとえば仕事では「うちの会社ではAIの使用を制限している」と言いながら、
家ではChatGPTに旅行プランを立てさせたり、子どもの宿題を手伝わせたりしている。
つまり、AIのリスクと可能性の“両方”を肌で感じている層が増えているんです。
以前の経営層は、新技術を「避ける」ことが多かった。
しかし今のリーダーたちは、「リスクを理解したうえで受け入れる」姿勢を取っています。
彼らの“抵抗”は恐れではなく、慎重さなんです。
最近、Kyndryl のCEOである Martin が Yahoo Finance に出演したとき、興味深い話をしていました。
ちょうど CrowdStrike の不具合が発生し、多くの航空会社のシステムが停止した直後のことです。
彼はこう言いました:
「私たちはお客様を24〜48時間以内に全員オンラインに戻した。
それが私たちの使命だ。どんなテクノロジーを使っていようと関係ない。」
そして彼は続けました。
「AIは確かに素晴らしい。しかし、ガレージで実験されている段階のツールを、そのまま企業システムに導入してはいけない。
エンタープライズ環境に持ち込む前に、“適切に鍛え直す(harden)”必要がある。」
私はこの言葉に強く共感しています。
私の役割の一つは、まさにその“橋渡し”です。
実験的なAIツールを見極め、どれを企業レベルに引き上げられるかを判断し、
必要なテストとガードレールを整えた上で、エンタープライズへ導入する。
つまり、スタートアップ的な「スピードと実験精神」を保ちつつ、
企業に求められる「信頼性と堅牢性」を両立させることが、私たちの使命なんです。
Ellie Tehrani
では次のテーマに移りましょう。
プロダクト開発のプロセスにおいて、AIエージェントがどのような変化をもたらしているのか伺いたいです。
特に「AIを使ったコンセプトテスト(概念検証)」について、効果的な方法やうまくいっている例があれば教えてください。
Ilyas Iyoob
正直に言うと、まだ“これが最善”という答えは見つかっていません。
いま業界で行われているやり方はいくつか見てきましたが、決定的なものはないですね。
多くのチームはこうしています。
「別の視点が必要になったら、もう一つエージェントを追加する」——それだけ。
つまり、あるエージェントがユーザーの要件を集め、
別のエージェントがそれをストーリーに変換し、
さらに別のエージェントが機能要件に落とし込み、
また別のエージェントが非機能要件を作成していく……という具合に、
ただどんどんAIを“積み増し”していくんです。
でも、結果として生まれるアウトプットは、人間がやっていた頃とほとんど変わりません。
むしろ、柔軟性が失われている場合もあります。
人間が同じ作業をしていたときは、プロセスの途中で「仮説を変える」ことができました。
たとえばデザイン思考のワークショップでは、
「ユーザーが本当に求めているのは何か」「どんな感情からそのニーズが生まれるのか」を掘り下げていきますよね。
そうした“仮説の修正”は、現時点のAIにはまだ難しい。
単純な製品ならAIは非常にうまく機能します。
でも複雑な製品、つまり複数の専門職や部署が連携しなければならないようなものでは、まだ人間のほうが優れています。
だからこそ、今この領域には“新しいチャンス”があります。
「人間の意図を的確にとらえ、言葉と実際のニーズのズレを見抜ける」AIツール。
もしそれが作れたら、業界を変える存在になるでしょう。
AIは「読めるもの」しか理解できません。
感じ取ることはできない。
だからこそ、開発の初期段階では“人間の感性”が欠かせないんです。
ただし、いったん製品が完成してからは別です。
そこから先は、AIをフル活用して構いません。
開発、展開、ユーザーフィードバックの収集などは自動化できます。
でも最初の段階——“何を作るべきか”を決める部分——だけは、人間の投資が最も重要なんです。
Ellie Tehrani
もうひとつ、AI研究でよく話題になるのが「バイアス(偏り)」です。
AIを使うときに、どうすれば既知のバイアスを防げるでしょうか?
Ilyas Iyoob
これは私が IBM にいた頃、当時のリサーチディレクターがよく言っていた言葉があって——
「良いバイアスも悪いバイアスもない。ただ“バイアス”があるだけだ」と。
時間の経過とともに、“許容される偏り”が変化するだけなんです。
だから、「バイアスを完全に排除する」という発想は、現実的ではありません。
むしろ考え方を逆にすべきです。
モデルそのものを修正するよりも、「データの多様性を増やす」ことに注力すべきです。
AIモデルは与えられたデータの範囲でしか学習できません。
したがって、データが偏っていれば結果も偏る。
ですから、「モデルをいじる」のではなく、「データセットを拡張して現実をより正確に反映させる」方が効果的なんです。
もちろん、モデルに監視機能や検証プロセスを設けることも大切です。
ただし、企業が外部ベンダーから「当社のモデルはバイアスフリーです」と言われたら注意してください。
そのベンダーは、あなたのビジネスもデータ構造も知らないのです。
“何のバイアスを取り除いたのか”がわからない状態で、その言葉を信じるのは危険です。
要するに、バイアス対策は“社内で完結すべき領域”です。
特に HR(人事) システムのように採用や評価に関わるものなら、
偏りが入り込まないよう複数のチェックを設ける必要があります。
一方で、たとえば単なるメッセージングツールなら、
「夜11時にメッセージを送る人」と「朝8時に送る人」のどちらを優遇するかなんて、誰も気にしませんよね。
つまり、バイアスは“文脈ごとに扱う”べきなんです。
過度に恐れるのではなく、適切な場所でガードレールを設ける。
そして何より——
「バイアス除去を外注してはいけない」。
それは自社の責任として取り組むべきことなんです。
Ellie Tehrani
素晴らしいポイントですね。では最後に、AI時代における“理想のチーム構成”についてお伺いしたいです。
AIが仕事の多くを担うようになる中で、人間のチームはどうあるべきだと考えますか?
Ilyas Iyoob
私は常にこう言っています——
「最高のAIチームを作りたければ、まず“最高のテストチーム”を作れ」と。
なぜなら、AIが出す結果の多くは“正しそうに見えるが間違っている”からです。
そのためには、モデルが生み出す出力を人間の視点で検証し、
そのロジックがビジネス上の現実と合っているかを見抜く人材が必要です。
そしてもうひとつ、軽視されがちですが非常に重要なのが データエンジニア です。
多くの企業では「データサイエンティストを雇えばAIは機能する」と考えがちですが、
実際のところ、AIを動かす基盤を整えるのはデータエンジニアです。
データが正しい形で流れ、重複や欠損がないよう保つこと。
データの系譜(data lineage)を追えるようにすること。
これが整っていなければ、どんなに優秀なモデルも役に立ちません。
たとえるなら、AIは“エンジン”、データは“燃料”、そしてデータエンジニアは“燃料パイプライン”の設計者です。
エンジンだけが高性能でも、燃料が汚れていたら車は走れない。
企業の多くはそこを見落としています。
Ellie Tehrani
確かに、テストとデータ整備はどんなAI戦略でも欠かせないですね。
では、これからAIを導入しようとしている企業に、アドバイスをひとつ挙げるとしたら?
Ilyas Iyoob
私がよく言うのは、「まず“小さく始める”こと」です。
いきなり全社導入を目指すのではなく、まず1つのプロセスを選んで実験してみる。
たとえばカスタマーサポートの自動応答、契約書の要約、営業資料の生成など。
その小さな成功体験が、社内の信頼と理解を生みます。
AI導入の最大の障壁は、技術ではなく「文化」なんです。
だからこそ、組織の中でAIを“共通言語”に変えていくことが重要です。
次に、スピードと安全性のバランスを取ること。
AIを素早く展開しようとすると、どうしてもセキュリティや品質が犠牲になります。
しかし、完璧を目指して動かないと、競合に遅れます。
その間の“バランス点”を見極めるのがリーダーの仕事です。
最後に、AIを“ツール”ではなく“チームメンバー”として扱うこと。
つまり、AIが単なる自動化の手段ではなく、
人間の思考を広げる「共創パートナー」になったとき、
組織の生産性と創造性は本当の意味で変わります。
Ellie Tehrani
まさにタイトル通りですね——
“The Elusive Consumer” の裏には、「The Evolving Enterprise(進化する企業)」がある。
本日は本当に素晴らしいお話をありがとうございました。
Ilyas Iyoob
こちらこそ。とても刺激的な対話でした。ありがとうございました。
ゲストについて

イリヤス・イユーブ(Ilyas Iyoob)は、20年以上にわたりリサーチ、アナリティクス、人工知能の分野で実績を持つ著名なテクノロジーリーダーであり、AI専門家です。
現在、Kyndryl のグローバルリサーチ部門の責任者として、倫理性を重視した生成AIソリューションの開発を率いるシニアサイエンティストチームを統括しています。
また、テキサス大学オースティン校 の教員としてデータサイエンスと人工知能を教えています。
ベンチャーキャピタリストとしても複数のテクノロジー企業に助言を行い、AI実装やプロダクト開発における専門知識を提供しています。
学術的厳密さと実践的なビジネス応用の両方を兼ね備えた彼の視点は、進化し続けるAIテクノロジー分野において極めて価値ある存在です。