出版社を探す

最短突破 データサイエンティスト検定(リテラシーレベル)公式リファレンスブック 第3版

他著:菅 由紀子
他著:佐伯 諭
他著:高橋 範光

紙版

内容紹介

集めたデータから価値を創出し、ビジネス課題に答えを出すデータサイエンティストは、ますます必要とされてきています。
そんなデータサイエンティストには、様々なスキルが求められています。

・情報処理、人工知能、統計学などの情報科学系の知恵を理解し使う、データサイエンス力
・データサイエンスを意味のある形に使えるようにし実装・運用できるようにする、データエンジニアリング力
・課題背景を理解した上でビジネス課題を整理し解決する、ビジネス力

さらに、これらのスキルを日常生活や仕事等の場で活かすための学修目標を示した

・数理・データサイエンス・AI(リテラシーレベル)モデルカリキュラム

も公表されています。

データサイエンティスト検定(リテラシーレベル)では、これらの基礎的な部分を総合的に問われます。

本書では、問われる項目をひとつひとつピックアップし、現場の第一線でで活躍する著者が詳しく解説しています。
読み込めば読み込むほど力になる、試験対策のための一冊です。

目次

はじめに

■第1章 DS検定とは
データサイエンティスト検定TMリテラシーレベルとは
データサイエンティスト協会とデータサイエンティストスキルチェックリストとは
データサイエンティスト検定TMリテラシーレベル試験概要
出題範囲① スキルチェックリスト
出題範囲② 数理・データサイエンス・AI(リテラシーレベル)モデルカリキュラム
本検定と、全てのビジネスパーソンが持つべきデジタル時代の共通リテラシー「Di-Lite」
DX推進を目指す人材であることを示す「DX推進パスポート」
本書の構成

■第2章 データサイエンス力
DS1 ベクトルの内積に関する計算方法を理解し、線形式をベクトルの内積で表現できる
DS2 行列同士、および行列とベクトルの計算方法を正しく理解し、複数の線形式を行列の積で表現できる
DS3 逆行列の定義、および逆行列を求めることにより行列表記された連立方程式が解けることを理解している
DS4 固有ベクトルおよび固有値の意味を理解している
DS5 微分により計算する導関数が傾きを求めるための式であることを理解している
DS6 2変数以上の関数における偏微分の計算方法を理解しており、勾配を求めることができる
DS7 積分と面積の関係を理解し、確率密度関数を定積分することで確率が得られることを説明できる
DS8 和集合、積集合、差集合、対称差集合、補集合についてベン図を用いて説明できる
DS9 論理演算と集合演算の対応を理解している(ANDが積集合に対応するなど)
DS10 順列や組合せの式 nPr, nCr を理解し、適切に使い分けることができる
DS11 確率に関する基本的な概念の意味を説明できる(確率、条件付き確率、期待値、独立など)
DS12 平均、中央値、最頻値の算出方法の違いを説明できる
DS13 与えられたデータにおける分散、標準偏差、四分位、パーセンタイルを理解し、目的に応じて適切に使い分けることができる
DS14 母(集団)平均と標本平均、不偏分散と標本分散がそれぞれ異なることを説明できる
DS15 標準正規分布の平均と分散の値を知っている
DS16 相関関係と因果関係の違いを説明できる
DS17 名義尺度、順序尺度、間隔尺度、比例尺度の違いを説明できる
DS18 ピアソンの相関係数の分母と分子を説明できる
DS19 5つ以上の代表的な確率分布を説明できる
DS20 二項分布は試行回数が増えていくとどのような分布に近似されるかを知っている
DS21 変数が量的、質的どちらの場合でも関係の強さを算出できる
DS22 指数関数とlog関数の関係を理解し、片対数グラフ、両対数グラフ、対数化されていないグラフを適切に使いわけることができる
DS23 ベイズの定理を説明できる
DS28 分析、図表から直接的な意味合いを抽出できる(バラツキ、有意性、分布傾向、特異性、関連性、変曲点、関連度の高低など)
DS29 想定に影響されず、数量的分析結果を客観的に解釈できる
DS31 適切なデータ区間設定でヒストグラムを作成し、データのバラつき方を把握できる
DS32 適切な軸設定でクロス集計表を作成し、属性間のデータの偏りを把握できる
DS33 量的変数の散布図を描き、2変数の関係性を把握できる
DS44 点推定と区間推定の違いを説明できる
DS45 統計的仮説検定において帰無仮説と対立仮説の違いを説明できる
DS46 第1種の過誤、第2種の過誤、p値、有意水準の意味を説明できる
DS47 片側検定と両側検定の違いを説明できる
DS48 検定する対象となるデータの対応の有無を考慮した上で適切な検定手法(t検定, z検定など)を選択し、適用できる
DS51 条件Xと事象Yの関係性を信頼度、支持度、リフト値を用いて評価できる
DS53 ある特定の処置に対して、その他の変数や外部の影響を除いた効果を測定するためには、処置群(実験群)と対照群に分けて比較・分析する必要があることを知っている
DS54 ある変数が他の変数に与える影響(因果効果)を推定したい場合、その双方に影響を与える共変量(交絡因子)の考慮が重要であると理解している(喫煙の有無と疾病発症の双方に年齢が影響している場合など)
DS55 分析の対象を定める段階で選択バイアスが生じる可能性があることを理解している(途中離脱者の除外時、欠損データの除外時など)
DS61 単独のグラフに対して、集計ミスや記載ミスなどがないかチェックできる
DS62 データ項目やデータの量・質について、指示のもと正しく検証し、結果を説明できる
DS67 データが生み出される経緯・背景を考え、データを鵜呑みにはしないことの重要性を理解している
DS70 どのような知見を得たいのか、目的に即して集計し、データから事実を把握できる
DS71 データから事実を正しく浮き彫りにするために、集計の切り口や比較対象の設定が重要であることを理解している
DS72 普段業務で扱っているデータの発生トリガー・タイミング・頻度などを説明でき、また基本統計量や分布の形状を把握している
DS73 時系列データとは何か、その基礎的な扱いについて説明できる(時系列グラフによる周期性やトレンドの確認、移動平均、回帰や相関計算における注意点など)
DS82 標本誤差およびサンプリングバイアス、およびそれぞれの違いについて説明できる
DS83 実験計画法の基本的な3原則(局所管理化、反復、無作為化)について説明できる
DS87 外れ値・異常値・欠損値とは何かを理解し、指示のもと適切に検出と除去・変換などの対応ができる
DS89 標準化とは何かを理解し、適切に標準化が行える
DS90 名義尺度の変数をダミー変数に変換できる
DS93 数値データの特徴量化(二値化/離散化、対数変換、スケーリング/正規化、交互作用特徴量の作成など)を行うことができる
DS101 データの性質を理解するために、データを可視化し眺めて考えることの重要性を理解している
DS102 可視化における目的の広がりについて概略を説明できる(単に現場の作業支援する場合から、ビッグデータ中の要素間の関連性をダイナミックに表示する場合など)
DS105 散布図などの軸出しにおいて、目的やデータに応じて縦軸・横軸の候補を適切に洗い出せる
DS106 積み上げ縦棒グラフでの属性の選択など、目的やデータに応じて適切な層化(比較軸)の候補を出せる
DS110 サンプリングやアンサンブル平均によって適量にデータ量を減らすことができる
DS111 読み取りたい特徴を効果的に可視化するために、統計量を使ってデータを加工できる
DS118 データ解析部門以外の方に、データの意味を可視化して伝える重要性を理解している
DS119 情報提示の相手や場に応じて適切な情報濃度を判断できる(データインク比の考え方など)
DS120 不必要な誇張をしないための軸表現の基礎を理解できている(コラムチャートのY軸の基準点は「0」からを原則とし軸を切らないなど)
DS121 強調表現がもたらす効果と、明らかに不適切な強調表現を理解している(計量データに対しては位置やサイズ表現が色表現よりも効果的など)
DS122 1~3次元の比較において目的(比較、構成、分布、変化など)に応じ、BIツール、スプレッドシートなどを用いて図表化できる
DS123 端的に図表の変化をアニメーションで可視化できる(人口動態のヒストグラムが経年変化する様子を表現するなど)
DS124 1~3次元の図表を拡張した多変量の比較を適切に可視化できる(平行座標、散布図行列、テーブルレンズ、ヒートマップなど)
DS133 外れ値を見出すための適切な表現手法を選択できる
DS134 データの可視化における基本的な視点を挙げることができる(特異点、相違性、傾向性、関連性を見出すなど)
DS139 単回帰分析において最小二乗法、回帰係数、標準誤差、決定係数を理解し、モデルを構築できる
DS140 重回帰分析において偏回帰係数と標準偏回帰係数、重相関係数、自由度調整済み決定係数について説明できる
DS141 線形回帰分析とロジスティック回帰分析のそれぞれが予測する対象の違いを理解し、適切に使い分けられる
DS153 ROC曲線、AUC(Area under the curve)を用いてモデルの精度を評価できる
DS154 混同行列(正誤分布のクロス表)、Accuracy、Precision、Recall、F値、特異度を理解し、精度を評価できる
DS155 RMSE(Root Mean Square Error)、MAE(Mean Absolute Error)、MAPE(Mean Absolute Percentage Error)、決定係数といった評価尺度を理解し、精度を評価できる
DS161 機械学習の手法を3つ以上知っており、概要を説明できる
DS162 機械学習のモデルを使用したことがあり、どのような問題を解決できるか理解している(回帰・分類、クラスター分析の用途など)
DS163 「教師あり学習」「教師なし学習」の違いを理解している
DS164 過学習とは何か、それがもたらす問題について説明できる
DS165 次元の呪いとは何か、その問題について説明できる
DS166 教師あり学習におけるアノテーションの必要性を説明できる
DS167 観測されたデータにバイアスが含まれる場合や、学習した予測モデルが少数派のデータをノイズと認識してしまった場合などに、モデルの出力が差別的な振る舞いをしてしまうリスクを理解している
DS168 機械学習における大域的(global)な説明(モデル単位の各変数の寄与度など)と局所的(local)な説明(予測するレコード単位の各変数の寄与度など)の違いを理解している
DS169 ホールドアウト法、交差検証(クロスバリデーション)法の仕組みを理解し、訓練データ、パラメータチューニング用の検証データ、テストデータを作成できる
DS170 時系列データの場合は、時間軸で訓練データとテストデータに分割する理由を理解している
DS171 機械学習モデルは、データ構成の変化(データドリフト)により学習完了後から精度が劣化していくため、運用時は精度をモニタリングする必要があることを理解している
DS172 ニューラルネットワークの基本的な考え方を理解し、入力層、隠れ層、出力層の概要と、活性化関数の重要性を理解している
DS173 決定木をベースとしたアンサンブル学習(Random Forest、勾配ブースティング[Gradient Boosting Decision Tree:GBDT]、 その派生形であるXGBoost、LightGBMなど)による分析を、ライブラリを使って実行でき、変数の寄与度を正しく解釈できる
DS174 連合学習では、データは共有せず、モデルのパラメータを共有して複数のモデルを統合していることを理解している
DS175 モデルの予測性能を改善するためには、モデルの改善よりもデータの質と量を向上させる方が効果的な場合があることを理解している
DS201 深層学習(ディープラーニング)モデルの活用による主なメリットを理解している(特徴量抽出が可能になるなど)
DS202 データサイエンスやAIの分野におけるモダリティの意味を説明できる(データがどのような形式や方法で得られるか、など)
DS219 時系列分析を行う際にもつべき視点を理解している(長期トレンド、季節成分、周期性、ノイズ、定常性など)
DS227 教師なし学習のグループ化(クラスター分析)と教師あり学習の分類(判別)モデルの違いを説明できる
DS228 階層クラスター分析と非階層クラスター分析の違いを説明できる
DS229 階層クラスター分析において、デンドログラムの見方を理解し、適切に解釈できる
DS240 ネットワーク分析におけるグラフの基本概念(有向・無向グラフ、エッジ、ノード等)を理解している。
DS247 レコメンドアルゴリズムにおけるコンテンツベースフィルタリングと協調フィルタリングの違いを説明できる
DS250 テキストデータに対する代表的なクリーニング処理(小文字化、数値置換、半角変換、記号除去、ステミングなど)を目的に応じて適切に実施できる
DS251 形態素解析や係り受け解析のライブラリを適切に使い、基本的な文書構造解析を行うことができる
DS252 自然言語処理を用いて解けるタスクを理解し、各タスクの入出力を説明できる(GLUEタスクや固有表現抽出、機械翻訳など)
DS265 画像のデジタル表現の仕組みと代表的な画像フォーマットを知っている
DS266 画像に対して、目的に応じた適切な色変換や簡単なフィルタ処理などを行うことができる
DS267 画像データに対する代表的なクリーニング処理(リサイズ、パディング、正規化など)を目的に応じて適切に実施できる
DS268 画像認識を用いて解けるタスクを理解し、入出力とともに説明できる(識別、物体検出、セグメンテーションなどの基本的タスクや、姿勢推定、自動運転などの応用的タスク)
DS274 動画のデジタル表現の仕組みと代表的な動画フォーマットを理解しており、動画から画像を抽出する既存方法を使うことができる
DS277 wavやmp3などの代表的な音声フォーマットの特徴や用途、基本的な変換処理について説明できる(サンプリングレート、符号化、量子化など)
DS282 大規模言語モデル(LLM)でハルシネーションが起こる理由を学習に使われているデータの観点から説明できる(学習用データが誤りや歪みを含んでいる場合や、入力された問いに対応する学習用データが存在しない場合など)

■第3章 データエンジニアリング力
DE1 オープンデータを収集して活用する分析システムの要件を整理できる
DE8 サーバー1~10台規模のシステム構築、システム運用を手順書を元に実行できる
DE9 オンプレミス環境もしくはIaaS上のデータベースに格納された分析データのバックアップやアーカイブ作成などの定常運用ができる
DE19 ノーコード・ローコードツールを組み合わせ、要件に応じたアプリやツールを設計できる
DE20 コンテナ技術の概要を理解しており、既存のDockerイメージを活用して効率的に分析環境を構築できる
DE21 分析環境を提供するクラウド上のマネージドサービス(Amazon SageMaker、Azure Machine Learning、Google Cloud Vertex AI、IBM Watson Studioなど)を利用して、機械学習モデルを開発できる
DE34 対象プラットフォーム(クラウドサービス、分析ソフトウェア)が提供する機能(SDKやAPIなど)の概要を説明できる
DE35 Webクローラー・スクレイピングツールを用いてWebサイト上の静的コンテンツを分析用データとして収集できる
DE39 システムやネットワーク機器に用意された通信機能(HTTP、FTPなど)を用い、データを収集先に格納するための機能を実装できる
DE45 データベースから何らかのデータ抽出方法を活用し、小規模なExcelのデータセットを作成できる
DE46 既存のサービスやアプリケーションに対して、分析をするためのログ出力の仕様を整理することができる
DE53 扱うデータが、構造化データ(顧客データ、商品データ、在庫データなど)か非構造化データ(雑多なテキスト、音声、画像、動画など)なのかを判断できる
DE54 ER図を読んでテーブル間のリレーションシップを理解できる
DE57 正規化手法(第一正規化~第三正規化)を用いてテーブルを正規化できる
DE64 DWHアプライアンス(Oracle Exadata Database Machine、IBM Integrated Analytics Systemなど)に接続し、複数テーブルを結合したデータを抽出できる
DE66 HadoopやSparkの分散技術の基本的な仕組みと構成を理解している
DE67 NoSQLデータストア(HBase、Cassandra、Mongo DB、CouchDB、Amazon DynamoDB、Azure Cosmos DB、Google Cloud Firestoreなど)にAPIを介してアクセスし、新規データを登録できる
DE71 クラウド上のオブジェクトストレージサービス(Amazon S3、Azure Blob Storage、Google Cloud Storage、IBM Cloud Object Storageなど)に接続しデータを格納できる
DE80 表計算ソフトのデータファイルに対して、条件を指定してフィルタリングできる(特定値に合致する・もしくは合致しないデータの抽出、特定範囲のデータの抽出、部分文字列の抽出など)
DE81 正規表現を活用して条件に合致するデータを抽出できる(メールアドレスの書式を満たしているか判定をするなど)
DE82 表計算ソフトのデータファイルに対して、目的の並び替えになるように複数キーのソート条件を設定ができる
DE83 表計算ソフトのデータファイルに対して、単一条件による内部結合、外部結合、自己結合ができ、UNION処理ができる
DE84 表計算ソフトのデータファイルに対して、NULL値や想定外・範囲外のデータを持つレコードを取り除く、または既定値に変換できる
DE87 表計算ソフトのデータファイルに対して、規定されたリストと照合して変換する、都道府県名からジオコードに変換するなど、ある値を規定の別の値で表現できる
DE89 表計算ソフトのデータファイルに対して、ランダムまたは一定間隔にレコードを抽出できる
DE90 表計算ソフトのデータファイルのデータを集計して、合計や最大値、最小値、レコード数を算出できる
DE91 表計算ソフトのデータファイルのデータに対する四則演算ができ、数値データを日時データに変換するなど別のデータ型に変換できる
DE92 変換元データと変換先データの文字コードが異なる場合、変換処理のコードがかける
DE95 加工・分析処理結果をCSV、XML、JSON、Excelなどの指定フォーマット形式に変換してエクスポートできる
DE96 加工・分析処理結果を、接続先DBのテーブル仕様に合わせてレコード挿入できる
DE97 RESTやSOAPなどのデータ取得用Web APIを用いて、必要なデータを取得できる
DE104 FTPサーバー、ファイル共有サーバーなどから必要なデータファイルをダウンロードして、Excelなどの表計算ソフトに取り込み活用できる
DE105 BIツールからデータベース上のDBテーブルを参照して新規レポートやダッシュボードを作成し、指定のユーザグループに公開できる
DE106 BIツールの自由検索機能を活用し、必要なデータを抽出して、グラフを作成できる
DE110 小規模な構造化データ(CSV、RDBなど)を扱うデータ処理(抽出・加工・分析など)を、設計書に基づき、プログラム実装できる
DE111 プログラム言語や環境によって、変数のデータ型ごとに確保するメモリサイズや自動型変換の仕様が異なることを理解し、プログラムの設計・実装ができる
DE112 データ処理プログラミングのため分岐や繰り返しを含んだフローチャートを作成できる
DE113 オブジェクト指向言語の基本概念を理解し、スーパークラス(親クラス)を継承して、スーパークラスのプロパティやメソッドを適切に活用できる
DE114 ホワイトボックステストとブラックボックステストの違いを理解し、テストケースの作成とテストを実施できる
DE115 JSON、XMLなど標準的なフォーマットのデータを受け渡すために、APIを使用したプログラムを設計・実装できる
DE116 外部ライブラリが提供する関数の引数や戻り値の型や仕様を調べて、適切に呼び出すことができる
DE123 他サービスが提供する分析機能や学習済み予測モデルをWeb API(REST)で呼び出し分析結果を活用することができる
DE124 目的に応じ音声認識関連のAPIを選択し、適用できる(Speech to Text など)
DE127 AIを用いたソースコードのレビュー機能・チェック機能を活用してプログラムのバグ修正や性能改善を実現できる
DE128 入れ子の繰り返し処理(二重ループ)など計算負荷の高いロジックを特定しアルゴリズムの改善策を検討できる
DE131 Jupyter Notebook(Pythonなど)やRStudio(R)などの対話型の開発環境を用いて、データの分析やレポートの作成ができる
DE132 クラウド上の統合開発環境(AWS SageMaker Studio Lab、Google Colab、Azure Data Studio、IBM Watson Studioなど)で提供されるNotebookを用いてPythonやRのコードを開発して実行できる
DE135 SQLの構文を一通り知っていて、記述・実行できる(DML・DDLの理解、各種JOINの使い分け、集計関数とGROUP BY、CASE文を使用した縦横変換、副問合せやEXISTSの活用など)
DE139 セキュリティの3要素(機密性、完全性、可用性) について具体的な事例を用いて説明できる
DE141 マルウェアなどによる深刻なリスクの種類(消失・漏洩・サービスの停止など)を理解している
DE142 OS、ネットワーク、アプリケーション、データなどの各レイヤーに対して、ユーザーごとのアクセスレベルを設定する必要性を理解している
DE149 暗号化されていないデータは、不正取得された際に容易に不正利用される恐れがあることを理解し、データの機密度合いに応じてソフトウェアを使用した暗号化と復号ができる
DE150 なりすましや改ざんされた文書でないことを証明するために、電子署名が用いられることを理解している
DE151 公開鍵暗号化方式において、受信者の公開鍵で暗号化されたデータを復号化するためには受信者の秘密鍵が必要であることを知っている
DE152 ハッシュ関数を用いて、データの改ざんを検出できる
DE154 OAuthに対応したデータ提供サービスに対して、認可サーバから取得したアクセストークンを付与してデータ取得用のREST APIを呼び出すことができる
DE159 AutoMLを用いて予測対象を判定するために最適な入力データの組み合わせと予測モデルを抽出できる
DE160 GitやSubversionなどのバージョン管理ソフトウェアを活用して、開発した分析プログラムのソースをリポジトリに登録しチームメンバーと共有できる
DE161 MLOpsの概要を理解し、AIモデル性能の維持管理作業の基本的な流れを説明できる
DE162 AIシステムのモニタリング項目を理解し、AIモデルの劣化状況や予測対象データの不備、AIシステムの異常を検知できる
DE168 ITシステムの運用におけるAIOpsの概要とメリットを説明できる
DE170 生成AIを活用する際、出力したい要件に合わせ、Few-shot PromptingやChain-of-Thoughtなどのプロンプト技法の利用や、各種APIパラメーター(Temperatureなど)の設定ができる
DE171 画像生成AIに組み込まれた標準機能の利用(モデル選択)や、画像生成プロンプトルール(強調やネガティブプロンプトなど)を理解し、適切に入力することで、意図した画像を生成できる
DE174 LLMを利用して、データ分析やサービス、システム開発のためのコードを作成、修正、改良できる
DE175 LLMを利用して、開発した機能のテストや分析検証用のダミーデータを生成できる

■第4章 ビジネス力
BIZ1 ビジネスにおける「論理とデータの重要性」を認識し、分析的でデータドリブンな考え方に基づき行動できる
BIZ2 「目的やゴールの設定がないままデータを分析しても、意味合いが出ない」ことを理解している
BIZ3 課題や仮説を言語化することの重要性を理解している
BIZ4 現場に出向いてヒアリングするなど、一次情報に接することの重要性を理解している
BIZ5 様々なサービスが登場する中で直感的にわくわくし、その裏にある技術に興味を持ち、リサーチできる
BIZ11 データを取り扱う人間として相応しい倫理を身に着けている(データのねつ造、改ざん、盗用を行わないなど)
BIZ12 データ、AI、機械学習の意図的な悪用(真偽の識別が困難なレベルの画像・音声作成、フェイク情報の作成、Botによる企業・国家への攻撃など)があり得ることを勘案し、技術に関する基礎的な知識と倫理を身につけている
BIZ16 データ分析者・利活用者として、データの倫理的な活用上の許容される範囲や、ユーザサイドへの必要な許諾について概ね理解している(直近の個人情報に関する法令:個人情報保護法、EU一般データ保護規則、データポータビリティなど)
BIZ19 データや事象の重複に気づくことができる
BIZ22 与えられた分析課題に対し、初動として様々な情報を収集し、大まかな構造を把握することの重要性を理解している
BIZ24 対象となる事象が通常見受けられる場合において、分析結果の意味合いを正しく言語化できる
BIZ27 一般的な論文構成について理解している (序論⇒アプローチ⇒検討結果⇒考察や、序論⇒本論⇒結論 など)
BIZ30 データの出自や情報の引用元に対する信頼性を適切に判断し、レポートに記載できる
BIZ31 1つの図表~数枚程度のドキュメントを論理立ててまとめることができる(課題背景、アプローチ、検討結果、意味合い、ネクストステップ)
BIZ34 報告に対する論拠不足や論理破綻を指摘された際に、相手の主張をすみやかに理解できる
BIZ43 既存の生成AIサービスやツールを活用し、自身の身の回りの業務・作業の効率化ができる
BIZ51 担当する分析プロジェクトにおいて、当該事業の収益モデルと主要な変数を理解している
BIZ54 担当する事業領域について、市場規模、主要なプレーヤー、支配的なビジネスモデル、課題と機会について説明できる
BIZ55 主に担当する事業領域であれば、取り扱う課題領域に対して基本的な課題の枠組みが理解できる(調達活動の5フォースでの整理、CRM課題のRFMでの整理など)
BIZ56 既知の事業領域の分析プロジェクトにおいて、分析のスコープが理解できる
BIZ62 仮説や既知の問題が与えられた中で、必要なデータにあたりをつけ、アクセスを確保できる
BIZ78 スコープ、検討範囲・内容が明確に設定されていれば、必要な分析プロセスが理解できる(データ、分析手法、可視化の方法など)
BIZ82 大規模言語モデルにおいては、事実と異なる内容がさも正しいかのように生成されることがあること(ハルシネーション)、これらが根本的に避けることができないことを踏まえ、利用に際しては出力を鵜呑みにしない等の注意が必要であることを知っている
BIZ83 ハルシネーションが起きていることに気づくための適切なアクションをとることができる(検索等によるリサーチ結果との比較や、他LLMの出力結果との比較、正確な追加情報を入力データに付与することによる出力結果の変化比較など)
BIZ87 単なるローデータとしての実数だけを見ても判断出来ない事象が大多数であり、母集団に占める割合などの比率的な指標でなければ数字の比較に意味がないことがわかっている
BIZ88 ニュース記事などで統計情報に接したときに、数字やグラフの不適切な解釈に気づくことができる
BIZ91 ビジネス観点で仮説を持ってデータをみることの重要性と、仮に仮説と異なる結果となった場合にも、それが重大な知見である可能性を理解している
BIZ94 分析結果を元に、起きている事象の背景や意味合い(真実)を見抜くことができる
BIZ106 結果、改善の度合いをモニタリングする重要性を理解している
BIZ109 二者間で交わされる一般的な契約の概念を理解している(請負契約と準委任契約の役務や成果物の違いなど)
BIZ114 AI・データを活用する際に、組織で規定された権利保護のガイドラインを説明できる
BIZ118 プロジェクトにおけるステークホルダーや役割分担、プロジェクト管理・進行に関するツール・方法論が理解できる
BIZ132 指示に従ってスケジュールを守り、チームリーダーに頼まれた自分の仕事を完遂できる
BIZ139 担当するタスクの遅延や障害などを発見した場合、迅速かつ適切に報告ができる

■第5章 数理・データサイエンス・AI(リテラシーレベル)モデルカリキュラム
5-1. 数理・データサイエンス・AI(リテラシーレベル)モデルカリキュラム
5-2-1. 社会におけるデータ・AI利活用(導入)で学ぶこと
5-2-2. 社会におけるデータ・AI利活用(導入)で学ぶスキル/知識
5-2-3. 社会におけるデータ・AI利活用(導入)の重要キーワード解説
5-3-1. データリテラシー(基礎)で学ぶこと
5-3-2. データリテラシー(基礎)で学ぶスキル/知識
5-3-3. データリテラシー(基礎)の重要キーワード解説
5-4-1. データ・AI利活用における留意事項(心得)で学ぶこと
5-4-2. データ・AI利活用における留意事項(心得)で学ぶスキル/知識
5-4-3. データ・AI利活用における留意事項(心得)の重要キーワード解説
5-5. 数理・データサイエンス・AI(リテラシーレベル)を詳しく学ぶ

■データサイエンティスト検定TMリテラシーレベル模擬試験 問題
■データサイエンティスト検定TMリテラシーレベル模擬試験 解答例

おわりに
索引
執筆者紹介
参考文献

著者略歴

他著:菅 由紀子
株式会社Rejoui(リジョウイ) 代表取締役 一般社団法人データサイエンティスト協会 スキル定義委員 広島大学 客員教授 2004年に株式会社サイバーエージェントに入社し、ネットリサーチ事業の立ち上げに携わる。2006年より株式会社ALBERTに転じ、データサイエンティストとして多数のプロジェクトに従事。2016年9月に株式会社Rejouiを創立し、企業や自治体におけるデータ利活用、データサイエンティスト育成事業を展開しているほか、ジェンダーを問わずデータサイエンティストの活躍支援を行う世界的活動WiDS(Women in Data Science)アンバサダーとして日本における中心的役割を果たしている。
他著:佐伯 諭
一般社団法人データサイエンティスト協会 スキル定義委員会副委員長、事務局長 ビーアイシーピー・データ株式会社 取締役COO SIerでのエンジニア、外資系金融でモデリング業務などの経験を経て、2005年に電通入社。デジタルマーケティングの黎明期からデータ・テクノロジー領域をリード。電通デジタル創業期には執行役員CDOとして組織開発やデータ人材の採用、育成などを担務。データサイエンティスト協会創立メンバーとして理事を7年間務めた後、現在は独立し、DXコンサルタントや協会事務局メンバーとして活動中。
他著:高橋 範光
株式会社ディジタルグロースアカデミア 代表取締役会長 株式会社チェンジホールディングス 執行役員 一般社団法人データサイエンティスト協会 スキル定義委員 アクセンチュアのマネージャーを経て、2005年に株式会社チェンジに入社。2013年、データサイエンティスト育成事業を開始するとともに、自身も製造業、社会インフラ、公共、保険、販売会社などのデータサイエンス案件を担当。現在は、ディジタルグロースアカデミアの代表取締役社長として、デジタル人財育成事業のさらなる拡大を目指す。著書に『道具としてのビッグデータ』(日本実業出版社)がある。

ISBN:9784297141301
出版社:技術評論社
判型:A5
ページ数:368ページ
定価:2600円(本体)
発行年月日:2024年05月
発売日:2024年05月07日
国際分類コード【Thema(シーマ)】 1:KJS