G検定学習記録_AIと社会
続き。
AI-Readyな企業レベル*1
AI-Readyな企業に向け、経営層、専門家、従業員、システム・データに関して、5段階のレベル分けを提示
レベル | 定義 | 概要 |
---|---|---|
レベル1 | AI-Ready化着手前 | AIの方法論の議論が先行し、AI×データを活用した事業運営・刷新・創造は未着手。 |
レベル2 | AI-Ready化の初期段階 | AI活用についてスモールスタートで経験を積む。一部の簡易業務のAI化も専門家の力を借りつつ着手開始。 |
レベル3 | AI-Ready化を進行 | 既存の業務フローのAI×データ化による自動化に目途がつく。戦略的なAI活用も開始する。 |
レベル4 | AI-Ready化からAI-powered化へ展開 | AI×データによって企業価値を向上。コア事業における価値を生むドライバーとしてAIを活用。 |
レベル5 | AI-Ready企業として確立・影響力発揮 | すべての事業・企業がAI×データ化し、業界そのものの本質的な刷新(disruption)を仕掛けている。 |
自動運転レベル*2
レベル | 車両名称 | 概要 |
---|---|---|
レベル1 | 運転支援者 | アクセル・ブレーキ操作またはハンドル操作のどちらかが、部分的に自動化された状態 |
レベル2 | 運転支援者 | アクセル・ブレーキ操作およびハンドル操作の両方が、部分的に自動化された状態 |
レベル3 | 条件付自動運転車(限定領域) | 特定の走行環境条件を満たす限定された領域において、自動運行装置が運転操作の全部を代替する状態。ただし、自動運行装置の作動中、自動運行装置が正常に作動しないおそれがある場合においては、運転操作を促す警報が発せられるので、適切に応答しなければならない |
レベル4 | 自動運転車(限定領域) | 特定の走行環境条件を満たす限定された領域において、自動運行装置が運転操作の全部を代替する状態 |
レベル5 | 完全自動運転車 | 自動運行装置が運転操作の全部を代替する状態 |
IoT:Internet of Things / 様々なモノがインターネットのようにつながることにより情報交換を行い、相互に制御する仕組みのこと。
RPA:Robotics Process Automation / 業務プロセス自動化の一種。ホワイトワーカーの行っている業務の一部を自動化するソフトウェアロボットを指す。
MLOps:Machine Learning Operations / AIプロジェクトの一連の流れ。DevOpsの派生と考えられている。モニタリングを通じて必要であればビジネス目標の策定までさかのぼる。
CRISP-DM:CRoss-Industry Standard Process for Data Mining / プロセスを順番ではなく、必要に応じて相互に行き来すること。
BPR:Business Process Re-engineering / システムを使うことによる業務プロセスの変更。
REST API:Representational State Transfer Application Programing Interface / Web開発において広く使われている設計思想に基づいたサービス提供方法。クラウドを利用してWebサービスを提供する。
バッチシステム:一定の処理をまとめて行うシステム。
プライバシー・バイ・デザイン:設計から事前にデフォルトでプライバシーを組み込んだ設計思想。
セキュリティ・バイ・デザイン:設計の段階からセキュリティに配慮した設計思想。
オープンイノベーション:外部組織と連携して研究開発を行うこと。
AI・データ契約ガイドライン:開発プロセスを独立したいくつかの段階に分けて探索的に開発を行う。アセスメント段階、PoC 段階、開発段階、追加学習段階(利用段階)の 4 段階に分け、それぞれ秘密保持契約、技術検証(PoC)契約等、共同研究開発契約等、利用契約等を締結することを推奨している。
サンプリング・バイアス:サンプルによって偏りが生じてしまうこと。AI活用の人材採用システムにおいて性別の中立性が働かなかったなど。
クレンジング:データセットから破損あるいは不正なレコードを検出して修正すること。
アノテーション:与えられたデータに対して人間が教師データとなるメタ情報を付加すること。
ELSI:Ethical, Legal and Social Issues / 技術的な課題以外にも法律や倫理、あるいはその技術が社会に受け入れられるかなどの課題を指す。*3
FAT:Fairness, Accoutablity and Transparency / システム利用においてプライバシーや公平性の問題について取り組むコミュニティ。
アセスメント:評価。できたモデルの精度がビジネス課題に対して効果があるかどうか?を評価する。
PoC:Proof of Concept / これから生まれるデータに対しての検証を行う。簡易的なシステムを組んで実地検証など。
GDPR:General Data Protection Regulation / EU域内の個人データ保護を規定する法
フェールセーフ:操作ミスや誤操作などが発生した際に、なるべく安全な状態に移行するような仕組み。*4
クライシス・マネジメント:危機による被害を最小限にする火消しと平常化と再発防止を目指す復旧。
PAI:Partnership on AI / Meta,Amazon,Google,IBM,Microsoftの5社が2016年に立ち上げた非営利組織。AI技術の実世界への開発手法の共有や、プライバシー、セキュリティの懸念事項に関する議論も行う。
倫理的に調整された設計:米国電気電子学会(IEEE)が2016年に発表した提言。道徳的価値および倫理的原則に即して人間と調和するAIを設計する方法を述べている。
アシロマAI原則:2017年にアメリカの非営利団体FLIが提唱した原則。5つの研究課題、13の倫理と価値、5つの長期的な課題に関する原則を提示している。
人間中心のAI社会原則:2019年に内閣府が発表した原則。人間の尊厳が尊重される社会、多様な背景を持つ人々が多様な幸せを追求できる社会、持続性ある社会の 3 つを基本理念とし、7 つの原則から構成されている。
ICJI:記号推論などの伝統的なテーマを含む人工知能技術全般をテーマとしている学会
NeurIPS:ニューラルネットワーク技術を主にテーマとしている学会であるが、近年は機械学習をテーマにした発表が増加している
CVPR:画像認識を主にテーマとしている学会
Society5.0:日本政府が、仮想空間と現実空間を高度に融合させたシステムにより、経済発展と社会的課題の解決を両立する、人間中心の社会を提唱したもの。
ここの範囲ってどう対策すればいいんだろうか。。。