業務改善・DX

業務改善・DX

機械学習の評価指標:迷ったらこれ早見表入門

機械学習の評価指標で迷いやすい分類・回帰・不均衡データの考え方を、Accuracy、Precision、Recall、F1、ROC-AUC、RMSE、MAEなどの違いと選び方から、実務で使える早見表としてわかりやすく整理します。
業務改善・DX

深層学習とTransformerの進化を整理

深層学習からTransformerへの流れを、CNN・RNN時代の課題、自己注意機構の強み、スケーリング則がもたらした変化、そして次に注目したいマルチモーダル化・MoE・長文処理・エージェント化まで、全体像がつかめる形で整理します。
業務改善・DX

深層学習の軽量化:オンデバイスAI実装入門

深層学習モデルをオンデバイスで動かしたい方向けに、軽量化が必要な理由、量子化・蒸留・枝刈りの基本、実装時の制約、速度と精度の妥協点の探り方、組み込み用途で失敗しない評価軸までをわかりやすく整理します。
情シス実務

運用保守が作るべき再発防止レポートの書き方と活用法

現場でよく聞く迷いを書きます:誰が何を「証拠」として残すか、どの事象を恒久対策に回すか、優先度・期限・担当をどの基準で決めるか──これらが不明確だから作業が止まるのです。議論は理論に偏りがちで、実際に必要なのは「現場で確実に取れる証拠」と「決定できる基準」です。本記事はそのギャップを埋めるための実務的な手順と判断基準を
情シス実務

運用チームで作るべきナレッジ共有様式と検索性向上術

(会議での場面)承認会議で「ツールを入れれば検索できるはずだ」「完璧なテンプレを作れば現場が書く」と結論だけ出て実行に移せない──こうした停滞を何度も見てきました。本稿は、承認→PoC→段階的自動化までを現場で即動ける形に落とし込みます。最初に示すのは「即使える判断表」と「そのまま回せるPoC設計シート(実例付き)」で
情シス実務

生成AI運用で現場が決めるべきエスカレーション基準案

導入:現場は「モデルの信頼度だけで良い」という抽象論で止まる 結論:モデルのconfidenceだけで運用を回すと、一次対応が迷い、承認会議で差し戻しが続きます。例えばCSが生成AIの補助で顧客に契約IDを誤案内し、自動送信でクレーム化した—この1件が現場の運用停止を招きます。 この記事で得られるものを先に示します。問
情シス実務

運用チームが作るべき定型復旧手順と検証方法の実例

「全部自動化すれば検証不要」「細かく書けば安心」——会議やPoC、本番オンコールで判断が割れ、現場の初動が止まる実務を何度も見てきました。例えば、運用会議で承認された長文手順が夜間に配布されても、オンコールは「何を最短でやればいいか分からない」と初動を躊躇し、RTOを超過する――こうした現場のズレを防ぐために書きます。
業務改善・DX

PoCで失敗しないAIベンダー選定チェックリスト

AIベンダー選定でPoCが失敗しやすい原因と、比較表に入れるべき評価項目、運用・保守・体制、提案資料では見えにくいリスク、本導入判断につながる評価設計を実務目線で整理します。
情シス実務

AI導入時のベンダー比較で見るべき運用サポート項目表

機能一覧やSLA表だけで「導入可」と決めていませんか?比較会議で営業資料の数字を並べただけで承認が出ても、PoCや本番で現場が止まるポイントはいつも同じです—問い合わせの一次対応、画面/PDF/帳票の再現性、そしてログの取り出し方。例えば、比較会議でSLAの平均値だけを比べて導入を決め、PoC初週で問い合わせ対応が滞っ
情シス実務

情シスが現場で導入するべき小さなDX改善の優先付け法

導入で壊す誤解:ツール導入=解決、Impact×Effortだけで良い、は現場を殺す 会議で「Impact×Effortで優先度1位だから進めよう」と決め、PoCは成功したのに本番ローンチ直後に現場が復旧作業で潰れる──こんな光景を見かけませんか?UIの微修正や承認漏れ、誤認識の手戻りで期待工数削減が吹き飛びます。この