#author("2025-02-17T10:58:48+09:00","","") #author("2025-02-17T10:59:18+09:00","","") [[FrontPage]] RIGHT:最終更新日時:&lastmod(); ---- -[[チャットボットとは? そのしくみや種類について最新動向を解説!:https://www.microsoft.com/ja-jp/biz/smb/column-chatbot]] Teams のチーム内、セキュリティ グループ内、テナント全体など、範囲を設定して公開することも可能です。さらに、既存の FAQ などをチャットボットに一括で取り込むこともできるので、構築時間も短縮できます。: -[[Microsoft Copilot Studio の概要と、Power Virtual Agents の Ignite2023 での発表まとめ:https://qiita.com/MiyakeMito/items/ec88d2da96dcfc1c11ca]] -[[Microsoft Copilot (現 Bing Chat、Copilot in Windows) を 12 月 1 日より正式提供開始。個人のお客様向け機能の紹介:https://news.microsoft.com/ja-jp/2023/11/28/231128-microsoft-copilot-officially-launched-on-december-1-introduction-of-features-for-individual-customers/]] 2023年11月の記事。出遅れている感満載。(現在2024年11月) **AIについて [#oaa8ed13] 2024年のPJで、エンドSEさんに、「Chat GPTでコーディングはできますか?」と聞かれました。 私の答えは「No」です。 以下は私の認識です。 Chat GPTにかかわらず、 AIは、「秘書」だという認識です。 -こちらが指示したことをやります。 -優秀な秘書は、指示した内容の裏まで先読みして作業してくれます。 ただ、どんなに優秀な秘書でも、こちらが何を求めているかを伝えてあげないと、 全く違った作業をしてしまう可能性があります。 A部長は、お茶と言ったら抹茶が欲しい。B常務は、お茶と言ったら紅茶が欲しい。 雇用者が情報を提供しないと、どんな優秀な秘書でも、一言でなんでも察することは不可能です。 AIも同様です -何をどの様に処理したいかを指示します -優秀なAIは、指示した内容の先まで読んでくれます 優秀なAIであればあるほど、利用者が「自分は何を求めているか」をAIに伝える必要があります。 さて、翻って、 「AIはプログラムができるか」 ごく簡単なプログラムならばできるでしょう。 ただ、複雑なプログラムはできないと認識したほうがいいです。 それは、AIの機能がどうこう、というよりは、 利用者がそこまでの情報をAIに提供できるか否かの問題です。 また、利用者が理解できない結果を求めたところで、 AIの出してきた結果が正しいか、誰が判断できますか? AIは秘書です。 秘書が間違ったことをして、周りに影響が出た場合、 責任を取るのは、雇用者かつ上司です。 あなたは、AIの作業の責任が取れますか? 自分の責任のとれる範囲で利用しておくのが、一番だと、 AIは、自分の責任のとれる範囲で利用しておくのが、一番だと、 私は認識しています。