KUT経・マネ/プログラミング系授業
前回の講義で学んだNumPyでは、配列構造を導入することにより、データ解析において必須とも言えるベクトル演算や要素への高速なアクセスを可能としていました。
しかしながら、NumPyの配列は基本的には複数のデータ型を混在させずに使用します。厳密にはオブジェクト型というデータ型を用いると混在させることができますが、高速化の利点は失われてしまいます。現実のデータは、測定する項目によってデータの型は異なるのが普通です。従って、NumPyの配列だけでは、データ解析には十分な柔軟性が得られないことが想像されます。
Rでは、こうした問題をデータフレームという構造を用いて解決しています。データフレームは行列、あるいは表のような構造をしており、各列内ではデータ型は固定ですが、列ごとに異なるデータ型を用いることが可能です。これによって、高速な計算と柔軟性を同時に実現することが出来ます。
pandasは、Pythonでデータフレームを使うためのモジュールであり、Pythonの世界におけるデータ解析ではスタンダードなツールとなっています。pandasは、NumPyをベースに構築されており、操作方法も似ています。
以前は機械学習モジュールのscikit-learnや可視化モジュールのmatplotlibなどの他のモジュールとの連携が十分でないイメージがありましたが、この問題は現在ではかなり解消し、他のデータ解析モジュールと高い互換性を実現しています。今や、Pythonでデータ解析をするならば、NumPyと同様、pandasを理解することは避けられないと言えます。
本講義では、前回の講義で作成した線形モデルの疑似サンプルデータを用いて、データをpandasのデータフレームに加工し、操作する方法を解説します。特にCSVファイルの操作と可視化に焦点を当てたいと思います。
まずはpandasデータフレームがどのようなものか説明するために、前回作った線形モデルの疑似データをデータフレームに格納してみましょう。まずは以下のコードを再実行し、疑似データを再作成してください。今回は、シード値を123に設定してからサンプリングしましょう。
# %%
# 線形モデルからのサンプリング
import numpy as np
rng = np.random.default_rng(123)
x = rng.normal(8,2,100)
e = rng.normal(0,3,100)
y = 1 + 2 * x + e
念のため、x、e、yの内容を表示して、サイズ100のサンプルがちゃんと生成されているか確認しておいてください。
次に、pandasモジュールを読み込みます。pandasは、pdの別名で読み込むのが慣例となっているので、特段の理由が無い限りこれに従いましょう。
# %%
import pandas as pd
それでは、x、y、eを変数とするデータフレームを作成しましょう。データフレームを作成する方法は幾つかありますが、最も簡単なのは以下のように辞書を用いる方法です。
この方法では、変数名をキー、対応するNumPyの配列を値として持つ辞書を作成し、pandasの関数DataFrameの引数に与えます。戻り値はデータフレームオブジェクトですので、これを適当な変数(ここではdf)に代入しておきましょう。
# %%
data = {'x':x,'y':y,'e':e}
df = pd.DataFrame(data)
print(type(df))
# 出力
<class 'pandas.core.frame.DataFrame'>
データフレームdfを表示してみましょう。
# %%
print(df)
# 出力
x y e
0 6.021757 11.496212 -1.547303
1 7.264427 20.503193 4.974340
2 10.575851 21.259913 -0.891788
3 8.387949 13.625766 -4.150131
4 9.840462 19.837310 -0.843614
.. ... ... ...
95 5.555309 12.561268 0.450651
96 7.392817 15.309035 -0.476600
97 5.652623 9.026150 -3.279095
98 9.652547 21.696433 1.391339
99 9.700645 15.425901 -4.975388
[100 rows x 3 columns]
このように、途中の行は省略されていますが、100行×3列の表形式になっており、各列はx、y、eの値を格納していることが分かります。各行は、一つのオブザベーションであることに注意してください。
なお、上記のように、デフォルトでpandasのデータフレームはオブザベーションが一定行数を超える場合は中間のオブザベーションを省略して表示するようになっています。この表示設定を変更する方法は補遺に記載しておきます。
pandasデータフレームは、概念的には、各変数の配列を束にしたものになっています。各変数のデータを配列で取得するには、次のようにします。
# %%
x_ser = df.x
x_arr = df.x.values
print(type(x_ser))
print(type(x_arr))
前者(x_ser)ではSeriesというpandas特有の配列型オブジェクトが得られますが、後者(x_arr)ではndarray型のNumPy配列が得られます。
# 出力
<class 'pandas.core.series.Series'>
<class 'numpy.ndarray'>
しばしば、「DataFrameはSeriesを束にしたものである」という表現がなされることがありますが、これはデータフレームから単一の変数データを取り出すと、往々にしてSeries型で返されるためです。多くの場合、以下の図のようなイメージを持っていれば十分でしょう。

NumPyの多次元配列とpandasのデータフレームの違いは、ちょうどRの行列とデータフレームの違いと似ています。NumPy多次元配列がすべての要素に同じ型のデータを持たなければならないのに対して、データフレームは、列ごとに異なる型を持つことができます。
一つの列の中では、通常は型が統一されますが、オブジェクト型の変数は任意のデータをもつことができます。
このようにpandasのデータの正体はndarrayオブジェクトですので、pandasのデータ型は基本的にNumPyのデータ型を踏襲していると考えて概ね正しいです。ただし幾つかの例外はあります。
たとえば、NumPy配列には文字列型が存在しますが、pandasデータフレームでは文字列はオブジェクト型として保存されるという違いがあります。
また、pandasには、欠測値を表すことができるInt64やInt32といった整数型が存在しますが、これはNumPyには存在しません。(Intという大文字からはじまる型名であることに注意してください。実際には、Int64やInt32は内部でnp.int64、np.int32の配列を扱っています。)
論理的にはデータフレームはSeriesオブジェクトの束ですが、複数のデータフレームがメモリを共有しているのか否か、あるいはデータフレームを用いた種々の計算の効率性といったことを知る必要がある場合は、実際にどのようにデータが格納されているかを気に掛ける必要があります。
データフレームの実際のデータは、データフレーム内のブロックマネージャというオブジェクトによって管理されています。ブロックマネージャの属性名は_dataです。
# %%
bm = df._data # ブロックマネージャを取得
print(type(bm))
print(bm)
# 出力
<class 'pandas.core.internals.managers.BlockManager'>
BlockManager
Items: Index(['x', 'y', 'e'], dtype='object')
Axis 1: RangeIndex(start=0, stop=100, step=1)
FloatBlock: slice(0, 3, 1), 3 x 100, dtype: float64
BlockManagerを出力した結果で重要なのはItemsとFloatBlockの項目です。Itemsは、変数のリストを表しています。一方、FloatBlockの欄は次のように解釈します。
| 記述 | 意味 |
|---|---|
slice(0,3,1) |
変数リストのスライス[0:3:1]、つまり0,1,2番目の変数は・・・ |
3 x 100 |
3行100列の2次元NumPy配列に格納されている |
dtype: float64 |
そしてその数値型はNumPyのfloat64型である |
この情報より、実際には、データフレームの数値は単一の2次元NumPy配列に格納されていることが分かります。
各変数のデータが収められているNumPy配列の実体を取得するには、各変数のvalues.base属性にアクセスします。もう少し詳しくいうと、values属性はデータのビューですので、その参照元の配列をbaseで取得します。
次のコードの出力により、x、y、eのデータが単一の2次元NumPy配列に格納されていることを確認できます。
# %%
base_array = df.x.values.base
print(df.y.values.base is base_array)
print(df.e.values.base is base_array)
print(base_array.shape)
# 出力
True
True
(3, 100)
このように、pandasのデータフレームは、同じ型を持つ変数を一つのNumPy配列にまとめて格納することによって各種計算の高速化を図っています。
ここで試しに、dfに、整数の変数を加えた新しいデータフレームを作ってみます。
# %%
int_var = np.arange(100,dtype=np.int64)
data2 = {'x':x,'y':y,'e':e,'int_var':int_var}
df2 = pd.DataFrame(data2)
print(df2.head())
x y e int_var
0 6.021757 11.496212 -1.547303 0
1 7.264427 20.503193 4.974340 1
2 10.575851 21.259913 -0.891788 2
3 8.387949 13.625766 -4.150131 3
4 9.840462 19.837310 -0.843614 4
同じようにブロックマネージャを取得してみましょう。
# %%
bm2 = df2._data
print(bm2)
BlockManager
Items: Index(['x', 'y', 'e', 'int_var'], dtype='object')
Axis 1: RangeIndex(start=0, stop=100, step=1)
FloatBlock: slice(0, 3, 1), 3 x 100, dtype: float64
IntBlock: slice(3, 4, 1), 1 x 100, dtype: int64
今度は、IntBlockという欄が新たにできました。この欄を読み解くと、第3変数のint_varは1行100列のNumPy配列に格納されており、その数値型はint64であることが分かります。

このように、数値型が異なる変数のデータは異なるNumPy配列に格納されています。実際、次のようにしてxとint_varのデータがメモリを異にすることが分かります。
# %%
df2.x.values.base is df2.int_var.values.base
# 出力
False
同じ数値型のデータが同じブロック(2次元NumPy配列)に格納されていることから、データ型が同じ変数であれば、列方向の計算も、かなりのパフォーマンスで実行できることが分かります。
データフレームを作成したら、本格的な分析にとりかかるまえに、まず始めにデータを精査すべきです。データを精査するプロセスには、様々な作業が含まれますが、例えば以下のような作業は有効でしょう。
このうち、欠測値の有無のチェックについては、多少難しい操作になるので、後に回し、ここでは1,2,4,5を説明します。
例えば文字列データを読み込んだ際に文字化けが無かったか、などをチェックするのに役立ちます。データの閲覧は、単純にprintでデータを出力してみるのが最も簡単な方法です。
そのほか、以下のようなメソッドも有効でしょう。
| メソッド | 機能 | 用例 |
|---|---|---|
head |
先頭の指定した行数だけ表示 | df.head(20) |
tail |
末尾の指定した行数だけ表示 | df.tail(20) |
headおよびtailの行数指定はオプションであり、指定しない場合は5行表示します。
# %%
print(df.tail())
df.tail()だけでも良いのですが、そうするとHTML加工されて出力されるので、ここでは書面の都合上print関数を使いました。
# 出力
x y e
95 5.555309 12.561268 0.450651
96 7.392817 15.309035 -0.476600
97 5.652623 9.026150 -3.279095
98 9.652547 21.696433 1.391339
99 9.700645 15.425901 -4.975388
また、特定の列だけ取得する方法には、様々な方法があります。
| 記法 | 機能 | 型 |
|---|---|---|
df['x'] |
xの列だけ取得 |
Series |
df[['x']] |
xの列だけ取得 |
DataFrame |
df[['x','y']] |
x、yだけのデータを取得 |
DataFrame |
df.x |
xの列だけを取得 |
Series |
df.loc[:,'x'] |
xの列だけを取得 |
Series |
df.loc[:,['x']] |
xの列だけを取得 |
DataFrame |
df.iloc[:,0] |
第0列だけを取得 | Series |
df.iloc[:,[0,1]] |
第0、1列だけのデータを取得 | DataFrame |
記法によって、得られるデータがSeries型の場合とDataFrame型の場合があるので、多少注意が必要です。
locやilocの使い方については、後でインデクシングとスライスの説明を行う際に解説します。
データフレームに読み込んだ変数のデータ型をチェックするには、データフレームのdtypes属性を表示します。
# %%
print(df.dtypes)
# 出力
x float64
y float64
e float64
dtype: object
これを見ると分かるように、意図したようにx、y、eが全て64ビット浮動小数点数として格納されていることが分かります。
このチェックによって、たとえば、xがオブジェクト型(object)などとして読み込まれていたりした場合は、xに数値以外のものがうっかりと混じってしまっていた可能性があります。あるいはデータをファイルから読み込んだ場合は、ファイルのオープンで何らかのトラブルがあった可能性があります。
各変数の分布のチェックをするには、ヒストグラムをプロットするのが一番分かりやすい方法です。データフレームには、histという全ての変数のヒストグラムをプロットするメソッドがあります。
# %%
df.hist()
出力は以下のようになります。

これにより、分布の形状に際立った特徴がないか、例えば母集団がマルチモーダルになっている可能性はないか、といった考察ができます。
pandasデータフレームには、要約統計量を計算する便利なメソッドが揃っています。一番最初に試してみるべきメソッドは、describeでしょう。これはRデータフレームのsummaryメソッドに対応するものです。
# %%
print(df.describe())
# 出力
x y e
count 100.000000 100.000000 100.000000
mean 8.163830 17.621354 0.293695
std 1.799021 4.655073 2.761058
min 3.585058 5.838924 -8.185457
25% 6.978835 13.910635 -1.225525
50% 8.033164 17.570366 0.264505
75% 9.653371 20.953255 2.130415
max 12.579820 27.685974 6.796562
出力された各要約統計量の意味は次の通りです。
| 統計量 | 意味 |
|---|---|
count |
オブザベーション数 |
mean |
平均値 |
std |
標準偏差 |
min |
最小値 |
25% |
25%分位点 |
50% |
50%分位点 |
75% |
75%分位点 |
max |
最大値 |
なお、こちらのstdはNumPyと異なり、自由度のデフォルトはN-1ですのでご注意ください。
自由度を変えたい場合は、独立にstdメソッドやvarメソッドを呼び出し、オプション引数ddofを設定する必要があります。
#%%
# 自由度をNにした分散と標準偏差
print('Var:')
print(df.var(ddof=0))
print()
print('Std:')
print(df.std(ddof=0))
# 出力
Var:
x 3.204111
y 21.453009
e 7.547206
dtype: float64
Std:
x 1.790003
y 4.631739
e 2.747218
dtype: float64
パーセンタイルをカスタマイズしたい場合は、describeメソッドのpercentiles引数にパーセンタイルをリストで渡します。たとえば2.5%、50%、97.5%を出力したいときは、次のようにします。
# %%
print(df.describe(percentiles=[0.025,0.5,0.975]))
x y e
count 100.000000 100.000000 100.000000
mean 8.163830 17.621354 0.293695
std 1.799021 4.655073 2.761058
min 3.585058 5.838924 -8.185457
2.5% 4.984007 8.015538 -5.119716
50% 8.033164 17.570366 0.264505
97.5% 11.348816 26.412084 5.619012
max 12.579820 27.685974 6.796562
相関行列を計算するには、corrメソッドが使えます。
# %% ピアソンの積率相関係数
print(df.corr("pearson"))
引数には”pearson”(ピアソン積率相関係数)、”kendall”(ケンドール順位相関係数)、”spearman”(スピアマン順位相関係数)が選べます。
# 出力
x y e
x 1.000000 0.805777 0.055381
y 0.805777 1.000000 0.635935
e 0.055381 0.635935 1.000000
他にも様々なメソッドやオプション引数がありますので、pandasのリファレンスマニュアルをチェックしてみてください。
Pythonでデータや分析の結果を可視化するには、matploblibモジュールを使うのが最もポピュラーです。筆者が把握する限り、matplotlibを用いるには、主に3つの方法があります。
matplotlibを直接操作するpandasデータフレームからmatploblibを呼び出すSeabornからmatplotlibを呼び出すmatplotlibは非常に低水準なグラフ描画機能を提供するので、柔軟性は高いですが、綺麗なグラフをmatplotlibで手作りするのは中々骨が折れます。
Seabornはmatplotlibのインターフェースを高水準にしたもので(こういうものをラッパーと呼びます)、柔軟性は低いですが、非常に簡単にきれいなグラフを作成できるという特徴があります。しかしながら、詳細なカスタマイズをしようと思うと、最終的にはmatplotlibをいじらないといけません。細部にこだわらない普段使いには十分であるような気がします。
pandasデータフレームからmatplotlibを呼び出すのは、matplotlibを直接操作するのと対して変わりありませんが、幾分インターフェースが簡略化されて使いやすくなっています。データフレームのメソッドなので、データにアクセスしやすくなっています。こちらについても、詳細な設定はmatplotlibに立ち返らないといけません。
(なお、PythonでもRのggplotを使うことはできます。筆者はほとんど使ったことがありませんが、操作感がよいとは言えない印象があります。どなたかレビューお願いします。筆者の場合、そもそもggplotを使いたいなら、最初からRを使います。)
このように、Rの可視化部門が実質ggplot2に一元化されているのに対し、Pythonの可視化部門は若干散らかっている印象があります。改めて見ると、ggplot2が優れているのは、非常に高水準なインターフェースと、極めて低水準な操作を両立している点ではないでしょうか。要するに、多少雑で良いなら簡単に様々なグラフが作れるが、頑張ればいくらでも美しく加工できるということです。
さて、Pythonに話を戻しましょう。筆者としては、グラフの大枠はpandasやSeabornで作成し、細かい微調整についてはmatplotlibを直接操作するというのが良いのではないかと思います。今回の講義はpandasの説明が中心ですので、データフレームのメソッドを介して可視化する方法を中心に説明します。
matplotlibのデフォルトのフォントでは日本語が文字化けしてしまうため、まずフォントの設定を行う必要があります。
次のように、matplotlibをインポートしてフォントを日本語フォントに変えましょう。Windowsでは”MS gothic”や”MS mincho”、”Meiryo”がありますが、ここでは”Meiryo”にしておきましょう。
# MS ゴシックに変更
import matplotlib
matplotlib.rcParams['font.family'] = 'Meiryo'
また、上記のやり方では、毎回の起動時にフォントを設定する必要があります。起動時のデフォルトのフォントを変更する方法もあります。
フォント周りの設定は本質的でなくごちゃごちゃした事項になるので、チートシートを別に作りました。参考にしてください。
散布図をプロットするには、データフレームのplot.scatterメソッドを使います。
# %%
df.plot.scatter(x='x',y='y')
出力は以下のようになります。

オプション引数をつけることによって、様々な微調整が可能です。
| オプション引数 | 意味 |
|---|---|
s |
マーカーサイズ |
c |
マーカー色 |
marker |
マーカー形状 |
xlim |
横軸範囲 |
ylim |
縦軸範囲 |
fontsize |
フォントサイズ |
これらのオプション引数は、例えば次のように使用します。
# %%
df.plot.scatter(x='x',y='y',
s=30, # マーカーサイズ
c='skyblue', # マーカーの色
marker='o', # マーカーの形
xlim=(3,13), # x軸の範囲
ylim=(4,30), # y軸の範囲
fontsize=12 # 軸目盛のフォントサイズ
)
軸ラベルを変更するのは、少し手間がかかります。まずmatplotlibのサブモジュールpyplotをインポートします(慣習として、pltという名前で読み込みます)。次に、pyplotモジュールのxlabel関数とylabel関数で軸ラベルとそのサイズを次のように変更できます。
# %%
import matplotlib.pyplot as plt
plt.xlabel('Xの値',size=18)
plt.ylabel('Yの値',size=18)
また、グラフ上下左右のマージンを設定するには、
# %%
plt.subplots_adjust(left=0.2,bottom=0.2)
のように指定します。
ここで注意しなくてはならないのは、VS Codeの対話的モードで図を描く場合、図を描く関数の呼び出しと、図を調整する関数plt.xlabel等の呼び出しは、次のように全て同じセルで行わなくてはならないということです(importは別のセルで構いません)。
# %%
import matplotlib.pyplot as plt
df.plot.scatter(x='x',y='y',
s=30, # マーカーサイズ
c='skyblue', # マーカーの色
marker='o', # マーカーの形
xlim=(3,13), # x軸の範囲
ylim=(4,30), # y軸の範囲
fontsize=12 # 軸目盛のフォントサイズ
)
plt.xlabel('Xの値',size=18)
plt.ylabel('Yの値',size=18)
plt.subplots_adjust(left=0.2,bottom=0.2)
出力は次のようになります。

全てのマーカー形状と全ての色名は以下のmatplotlibのサイトにリストアップされています。
また、plot.scatterメソッドの詳細な使い方はpandasのリファレンスを見てください。
マーカーの色はRGBもしくはRGBAでも指定可能です。RGBは、赤・緑・青の強さを0~1の数値で表したものです(0~255の1バイト整数で表すことも多いです)。三つの数値をタプルで表します。たとえば、
(0,0,1)
は青原色となります。
また、RGBAは、RGBに加えて、第4の数値が不透明度を0~1で表します。1が最も不透明で、0が透明です。
matplotlibでは、colors.to_rgbおよびcolors.to_rgba関数によって色名からRGB値およびRGBA値を取得できます。
# "coral"のRGBA値を取得
rgba_coral = matplotlib.colors.to_rgba("coral")
print(rgba_coral)
# 出力
(1.0, 0.4980392156862745, 0.3137254901960784, 1.0)
たとえば、このRGBA値のアルファ値を少し減じてやることによって、透明度のある”coral”を作ることができます。
# %%
rgba_coral_tr = rgba_coral[0:3] + (0.6,)
df.plot.scatter(x='x',y='y',
s=30, # マーカーサイズ
color=rgba_coral_tr, # マーカーの色
marker='o', # マーカーの形
xlim=(3,13), # x軸の範囲
ylim=(4,30), # y軸の範囲
fontsize=12 # 軸目盛のフォントサイズ
)
plt.xlabel('Xの値',size=18)
plt.ylabel('Yの値',size=18)
plt.subplots_adjust(left=0.2,bottom=0.2)
結果は次のようになります。

ただし、RGB値やRGBA値を渡す場合は、引数名はcではなくcolorにしてください。
それでは次に、単回帰の結果を散布図に重ねましょう。まずは回帰分析を再実行しておきます。
# %%
# 回帰分析
from scipy import stats
res = stats.linregress(df.x,df.y)
print(res)
ここで、データフレームdfの変数xの配列と変数yの配列にアクセスするために、df.x、df.yという表記を用いていることに注意してください。このように、データフレームでは、df.変数名という表記によって、各列を取り出すことができます。
# 出力
LinregressResult(slope=2.084996965456381, intercept=0.5997940915043358, rvalue=0.8057774353709972, pvalue=5.010945582964262e-24, stderr=0.15479582428347563, intercept_stderr=1.2937470389108192)
interceptが切片、slopeが回帰係数であることに注意してください。
次に、この結果を用いて、回帰モデルの予測値を与えるデータフレームを用意しましょう。
まず、x_modelを予測用のサンプルデータ点を表すNumPy配列にします。これは、グラフの定義域をカバーしていればどんな配列でもよいのですが、ここでは、3~13の範囲を100分割した数列にしておきましょう。このような操作には、NumPyのlinspace関数を使います。
# %%
x_model = np.linspace(3,13,100)
print(len(x_model)) # 配列の長さ
print(np.round(x_model[:3],3)) # 最初の3要素
print(np.round(x_model[-3:],3)) # 最後の3要素
linspaceの引数は、それぞれ、開始数値、終端数値、分割数です。
# 出力
100
[3. 3.101 3.202]
[12.798 12.899 13. ]
次に、y_modelを、yの予測値を与える配列とします。これは、回帰分析の結果を用いて次のように計算できます。
# %%
y_model = res.intercept + res.slope * x_model
これを用いて、100オブザベーションについての予測値を格納したデータフレームdf_modelを次のように作成しておきます。
# %%
df_model = pd.DataFrame({'x':x_model,'y':y_model})
print(df_model)
# 出力
x y
0 3.00000 6.854785
1 3.10101 7.065391
2 3.20202 7.275996
3 3.30303 7.486602
4 3.40404 7.697208
.. ... ...
95 12.59596 26.862332
96 12.69697 27.072937
97 12.79798 27.283543
98 12.89899 27.494149
99 13.00000 27.704755
[100 rows x 2 columns]
この予測値のデータフレームで、x横軸、y縦軸の折れ線グラフを描けば、回帰直線になっているはずです。回帰直線には、データフレームのplot.lineメソッドを使います。linestyle引数で線の種類、linewidthで線の太さを設定できます。
# %%
df_model.plot.line(x='x',y='y',
linestyle='dashed',
color='grey',
linewidth=3
)
scatterと同じく様々な微調整が可能ですが、ここでは後で散布図と重ねることを考慮して、微調整は行わないことにします。
出力は以下のようになります。

なお、全ての線の種類のリストは以下で調べることができます。
それでは、最後に、上で作成した散布図と回帰直線をオーバレイ(重ね描き)してみましょう。まずは、オーバレイせずにそのまま二つのグラフを打ち出すだけのコードを書いてみます。
以下のようになりますが、これまで作成したコードを合わせただけなので、特に説明はいらないでしょう。
# %%
df.plot.scatter(x='x',y='y',
s=30, # マーカーサイズ
c='skyblue', # マーカーの色
marker='o', # マーカーの形
xlim=(3,13), # x軸の範囲
ylim=(4,30), # y軸の範囲
fontsize=12 # 軸目盛のフォントサイズ
)
df_model.plot.line(x='x',y='y',
linestyle='dashed', # 線種
color='grey', # 線色
linewidth=3 # 線幅
)
plt.xlabel('Xの値',size=18) # X軸ラベル
plt.ylabel('Yの値',size=18) # Y軸ラベル
plt.subplots_adjust(left=0.2,bottom=0.2) # マージン
ふたつのグラフを重ねるには、以下のように一つ目のグラフの戻り値を、二つ目のグラフのax引数に渡します。
# %%
ax = df.plot.scatter(x='x',y='y', # 戻り値をaxに
s=30, # マーカーサイズ
c='skyblue', # マーカーの色
marker='o', # マーカーの形
xlim=(3,13), # x軸の範囲
ylim=(4,30), # y軸の範囲
fontsize=12 # 軸目盛のフォントサイズ
)
df_model.plot.line(x='x',y='y',
linestyle='dashed', # 線種
color='grey', # 線色
linewidth=3, # 線幅
ax=ax, # 一つ目のグラフの戻り値
legend=False # レジェンドを削除
)
plt.xlabel('Xの値',size=18) # X軸ラベル
plt.ylabel('Yの値',size=18) # Y軸ラベル
plt.subplots_adjust(left=0.2,bottom=0.2) # マージン
出力は次のようになります。ここでは、ついでに二つ目のグラフのレジェンドを削除しておきました。

上記では、まず回帰分析を行ってから、その結果を散布図に重ねるという作業を行いましたが、Seabornモジュールのregplotメソッドを用いると、回帰直線と信頼区間を自動で挿入してくれます。
Seabornのモジュール名はseabornですが、snsの別名で読み込むのが慣習となっていますので、それに従いましょう。
# %%
import seaborn as sns
# %%
sns.regplot(x=df.x,y=df.y,
color='black',
marker='x',
scatter_kws={'s':10}) # マーカーサイズ
plt.tick_params(labelsize=14) # 軸数値のサイズ
plt.xlim((3,13))
plt.ylim((4,30))
plt.xlabel('Xの値',size=18)
plt.ylabel('Yの値',size=18)
plt.subplots_adjust(left=0.2,
bottom=0.2)

本講義では、Seabornの詳しい解説はしませんが、興味がある方はリファレンスマニュアルを参照してください。
可視化の締めくくりとして、グラフのファイルへの保存について説明しておきます。グラフの保存は、matplotlib.pyplotのsavefig関数によって行います。やはり、グラフを描画したセル内部で保存をする必要があります。
# %%
ax = df.plot.scatter(x='x',y='y', # 戻り値をaxに
s=30, # マーカーサイズ
c='skyblue', # マーカーの色
marker='o', # マーカーの形
xlim=(3,13), # x軸の範囲
ylim=(4,30), # y軸の範囲
fontsize=12 # 軸目盛のフォントサイズ
)
df_model.plot.line(x='x',y='y',
linestyle='dashed', # 線種
color='grey', # 線色
linewidth=3, # 線幅
ax=ax, # 一つ目のグラフの戻り値
legend=False # レジェンドを削除
)
plt.xlabel('Xの値',size=18) # X軸ラベル
plt.ylabel('Yの値',size=18) # Y軸ラベル
plt.subplots_adjust(left=0.2,bottom=0.2) # マージン
plt.savefig('linregress.png',
dpi=300,
facecolor='white')
最後の一行でグラフを’linregress.png’というPNGファイルに保存しています。ここでは、背景を白色にするためにfacecolor引数に’white’を指定し、解像度を300dpiに設定しました。
エクスプローラで’linregress.png’を探して表示できるかどうか試してみてください。
データフレームの一部を取り出すには、様々な方法があります。
いずれの方法でも、locとilocという二つのインデクサを用いることになります。
インデックス番号でデータフレームの要素にアクセスするには、ilocを使います。iloc[i,j]でi行j列の要素を意味します。
# %%
print(df.head())
print("\ndf.iloc[2,1]:")
print(df.iloc[2,1])
# 出力
x y e
0 6.021757 11.496212 -1.547303
1 7.264427 20.503193 4.974340
2 10.575851 21.259913 -0.891788
3 8.387949 13.625766 -4.150131
4 9.840462 19.837310 -0.843614
df.iloc[2,1]:
21.25991325823923
変数ラベルを用いて要素にアクセスしたい場合は、ilocの代わりにlocを使う必要があります。
# %%
print(df.head())
print("\ndf.loc[3,'x']:")
print(df.loc[3,'x'])
# 出力
x y e
0 6.021757 11.496212 -1.547303
1 7.264427 20.503193 4.974340
2 10.575851 21.259913 -0.891788
3 8.387949 13.625766 -4.150131
4 9.840462 19.837310 -0.843614
df.loc[3,'x']:
8.387948838265226
iloc)ilocにスライス記法を使えば、データフレームの一部をスライスで取り出せます。
# %%
print(df.head())
print("\ndf.iloc[0:3,1]:")
data_slice = df.iloc[0:3,1]
print(data_slice)
print(type(data_slice))
# 出力
x y e
0 6.021757 11.496212 -1.547303
1 7.264427 20.503193 4.974340
2 10.575851 21.259913 -0.891788
3 8.387949 13.625766 -4.150131
4 9.840462 19.837310 -0.843614
df.iloc[0:3,1]:
0 11.496212
1 20.503193
2 21.259913
Name: y, dtype: float64
<class 'pandas.core.series.Series'>
上記のように、スライスで気を付けないといけないのは、列番号を単一数値にすると、データフレームではなくSeriesオブジェクトになって返されるということです。
データフレームを返して欲しい場合は、以下のように単一要素でもスライスもしくはリストにしてインデクサに渡す必要があります。
# %%
print(df.head())
print("\ndf.iloc[0:3,1:2]:")
data_slice = df.iloc[0:3,1:2]
print(data_slice)
print(type(data_slice))
# 出力
x y e
0 6.021757 11.496212 -1.547303
1 7.264427 20.503193 4.974340
2 10.575851 21.259913 -0.891788
3 8.387949 13.625766 -4.150131
4 9.840462 19.837310 -0.843614
df.iloc[0:3,1:2]:
y
0 11.496212
1 20.503193
2 21.259913
<class 'pandas.core.frame.DataFrame'>
loc)locインデクサを用いれば、列名にもスライスが使用可能です。
# %%
df_xy = df.loc[:,'x':'y']
print(df_xy)
# 出力
x y
0 6.021757 11.496212
1 7.264427 20.503193
2 10.575851 21.259913
3 8.387949 13.625766
4 9.840462 19.837310
.. ... ...
95 5.555309 12.561268
96 7.392817 15.309035
97 5.652623 9.026150
98 9.652547 21.696433
99 9.700645 15.425901
[100 rows x 2 columns]
ここで、locインデクサのスライスは若干記法が特殊であることに注意してください。番号によるスライスとは違って、'x':'y'と書くと、yの列も含まれたデータフレームが得られます。
これは行インデックスでも同じです。locインデクサで行をスライスするときは、1:4とかくと、4行目も含まれたデータフレームが得られます。
ブールインデックス参照とは、行数あるいは列数に等しい長さをもったブール値の配列を用いてデータフレームの一部を取り出すことです。データ分析で非常に頻繁に用いる手法ですので、必ず覚えておきましょう。
たとえば、xの値が8以上になっているオブザベーションだけを取り出したいとします。このような場合、以下のようなブールインデックス参照が有効です。
# %%
df_xgt8 = df.loc[df.x>=8,:]
print(df_xgt8.head())
np.all(df_xgt8.x >= 8) # 全て8以上か確認
# 出力
x y e
2 10.575851 21.259913 -0.891788
3 8.387949 13.625766 -4.150131
4 9.840462 19.837310 -0.843614
5 9.154208 20.388477 1.080062
7 9.083904 25.964371 6.796562
True
ブールインデックス参照に慣れていないと、これは何をやっているのか分からないでしょう。
上の記法を理解するため、まずインデクサに渡したdf.x>=8が何を意味するのか考えてみます。
df.x >= 8
この二項演算において、左辺はSeries型配列、右辺は8というスカラですが、ブロードキャストが起きて右辺は左辺と同じ長さ100のSeries型配列に変換されます。これはNumPy配列の場合と全く同じです。
そのあと、項ごとに二項演算>=が実行され、結果はTrueとFalseの長さ100の配列になります。
実際に結果を見てみましょう。
# %%
print(df.x>=8)
print(type(df.x>=8))
# 出力
0 False
1 False
2 True
3 True
4 True
...
95 False
96 False
97 False
98 True
99 True
Name: x, Length: 100, dtype: bool
<class 'pandas.core.series.Series'>
このSeries配列では、x>=8が成り立つところではTrue、成り立たないところではFalseになっていることに注意してください。
pandasのデータフレームは、こうしたブール値配列をlocインデクサに渡すと、Trueが成り立っている行だけを返してくれるという機能を持っています。こうしたブール値配列を用いた部分データの取得をブールインデックス参照と呼びます。pandasに限らずデータフレームを扱う大抵のツールで提供されている機能です。
ブールインデックス参照を用いると、複雑な条件を満たすオブザベーションだけを容易に取り出すことができます。
たとえば、x>=8かつy<20を満たす行だけを取り出してみましょう。この場合、次のようにします。
# %%
df_x8y20 = df.loc[(df.x>=8) & (df.y<20),:]
print(df_x8y20.head())
print(df_x8y20.shape)
# 出力
x y e
3 8.387949 13.625766 -4.150131
4 9.840462 19.837310 -0.843614
14 10.000539 19.061887 -1.939190
21 9.655843 19.544249 -0.767437
24 9.509539 19.163218 -0.855860
(21, 3)
ここで重要なポイントが二つあります。
andではなく&をつかうこれらの2点を見落としがちですので気を付けましょう。andはスカラーの間の論理積には使えますが、配列の間の論理積には使えません。代わりに&を使います。
同様に、論理和ORは|、否定には~を使います。
最後にファンシーインデックス参照は、取り出したいインデックス番号のリストや配列をインデクサに渡す方法です。たとえば、0、2、4行目だけを取り出したいときは、次のようにします。
# %%
df_fancy = df.iloc[[0,2,4],:]
print(df_fancy.head())
# 出力
x y e
0 6.021757 11.496212 -1.547303
2 10.575851 21.259913 -0.891788
4 9.840462 19.837310 -0.843614
なお、これまでの様々なインデクシングの記法は、組み合わせて使うことができることに注意しましょう。たとえば変数xとeの1~4行目を取り出したいときは次のようにします。
# %%
df_comb = df.loc[1:4,['x','e']]
print(df_comb)
# 出力
x e
1 7.264427 4.974340
2 10.575851 -0.891788
3 8.387949 -4.150131
4 9.840462 -0.843614
pandasでは、従来欠測値はnp.nanオブジェクト(NaNとも表記されます)で表されてきました。np.nanは”Not a Number”を意味しており、NumPy配列における値の欠測を表現するために使われます。NaNは浮動小数点型なので、一つの配列内でint型と混在させることはできません。
たとえば下記のように、int64型の配列にNaNを代入すると、エラーが出ます。
# %%
# 整数配列にNaNを入れてみる
arr = np.arange(10,dtype=np.int64)
print(arr.dtype)
arr[0] = np.nan
# 出力
int64
---------------------------------------------------------------------------
ValueError Traceback (most recent call last)
...(中略)...
56 arr = np.arange(10,dtype=np.int64)
57 print(arr.dtype)
----> 58 arr[0] = np.nan
ValueError: cannot convert float NaN to integer
たとえば、先ほど作成したデータフレームdf2をコピーしてdf3という新しいデータフレームを作成し、欠測値を挿入してみましょう。
# %%
df3 = df2.copy()
ここでは、変数xの第3オブザベーション(0からカウントして)と変数yの第2オブザベーションにNaNを入れてみましょう。
# %%
df3.loc[3,'x'] = np.nan
df3.loc[2,'y'] = np.nan
print(df3.head())
# 出力
x y e int_var
0 6.021757 11.496212 -1.547303 0
1 7.264427 20.503193 4.974340 1
2 10.575851 NaN -0.891788 2
3 NaN 13.625766 -4.150131 3
4 9.840462 19.837310 -0.843614 4
上記のとおりNaNは”NaN”と表示されます。
こういった欠測値をどのように取り扱うかべきかは、場合によりますが、いずれにせよ欠測が存在していることを確認することは重要です。
欠測が少ない場合は、欠測を含む行を全て除去する対処法が考えられます。これをリストワイズ除去と呼び、欠測に対処する方法の中では最も原始的なものです。
データフレームのdropnaメソッドを使うと、リストワイズ除去したデータフレームが返されます。
# %%
df3_dropnan = df3.dropna()
print(df3_dropnan.head())
# 出力
x y e int_var
0 6.021757 11.496212 -1.547303 0
1 7.264427 20.503193 4.974340 1
4 9.840462 19.837310 -0.843614 4
5 9.154208 20.388477 1.080062 5
6 6.727073 13.750969 -0.703176 6
なお、逆に欠測に値を代入するときは、fillnaメソッドが使えます。たとえば、欠測に平均値を代入する場合は、次のようにします。
# %%
df3_fillnan = df3.fillna(df3.mean())
print(df3.mean())
print(df3_fillnan.head())
# 出力
x 8.161566
y 17.584601
e 0.293695
int_var 49.500000
dtype: float64
x y e int_var
0 6.021757 11.496212 -1.547303 0
1 7.264427 20.503193 4.974340 1
2 10.575851 17.584601 -0.891788 2
3 8.161566 13.625766 -4.150131 3
4 9.840462 19.837310 -0.843614 4
なお、pandasには整数の欠測を表現できるpandas.NAという型も存在していますが、こちらについては本講義では割愛します。
pandasは、CSVとデータフレームの間で直接読み書きができるようになっています。まずは、今回の講義で作成したデータフレームdfをCSVに保存してみましょう。
CSVへの保存には、to_csvメソッドを使います。
# %%
df.to_csv('pandas.csv',
encoding='utf-8',
index=False) # 行インデックスなし
ここでは、’pandas.csv’という名前のファイルに、utf-8エンコーディングで保存しました。indexオプション引数をFalseにして、行インデックスはCSVに含めないようにしました。
VS CodeにCSV関連の拡張機能(Edit CSV、Rainbow CSV等)をインストールしていればCSVが閲覧できるはずですので、ファイルエクスプローラで見つけて開いてみましょう。
次は逆に、先ほど保存したCSVを別の名前のデータフレームに読み込んでみましょう。
# %%
df4 = pd.read_csv('pandas.csv',
engine='python',
encoding='utf-8')
engine引数はCSVの解析エンジンを設定するオプションですが、デフォルトで上手く読み込めない場合は、上のように"python"を指定すると上手くいくことが多いです。
今回の講義では以下の点について学びました。
今回の講義では、非常に高度で豊富なpandasの機能のごく一部しか紹介できませんでした。例えばpandasデータフレームには、データをグループ分けしたり、複数のデータフレームを様々な方法で結合する機能が備わっていますが、こういった高度な話題については一切触れませんでした。可視化についても、ほんの一部の機能しか紹介していません。
pandasのリファレンスマニュアルやインターネット上の情報を探して、自分が必要な機能が実装されていないか調べてみてください。大抵、自分が期待していいる以上のことができることに気付くと思います。
pandasデータフレームのデータ構造についての考察は、上記のBlockManagerに関する記事を大いに参考にしました。
データフレームdfのブロックマネージャdf._dataにはblocksという属性があり、データのブロックがタプル形式で保存されていることを確認してください。各ブロックのデータは、ブロックのvalues属性に格納されています。これがNumPyの配列であることを以下のようにして確認しなさい。また、これがdf.x.values.baseによりアクセスできる配列と同じオブジェクトであることを確かめてください。
# %%
for block in df._data.blocks:
arr = block.values
print(type(arr))
Series型オブジェクトについて研究してください。NumPy配列と同様、Seriesのスライスは元のオブジェクトのビューであることを確認してください。データフレームのデータを、変数xでソートするには、sort_valuesメソッドを次のように使います。実際に試してみてください。
# %%
x_sorted = df.sort_values(by='x')
文字列データを含むデータフレームを作成してみてください。たとえば、次のようにすれば、xが8以上のオブザベーションを”High”、8未満を”Low”とする変数が作れます。’High’なオブザベーションだけを抽出して、各種要約統計量を計算してみてください。
df['height'] = 'Low'
df.loc[df.x>=8,'height'] = 'High'
groupbyメソッドを使うと、groupbyオブジェクトを作成できます。このオブジェクトには、describe、mean、varなどの基本統計量をグループごとに計算するメソッドが備わっています。以下のように、試してみてください。
gpb = df.groupby('height')
gpb.describe()
pandasのデータフレームは、デフォルトで一部の行しか表示しないようになっています。表示行数を設定することはできますが、この設定がちょっと分かりにくいので、ここで詳しく説明しておきましょう。
pandasのオプションは、get_optionメソッドもしくは、options属性から確認できます。表示行数に関連するのはmin_rowsオプションとmax_rowsオプションです。
# get_optionメソッドによる表示
print(pd.get_option('display.min_rows'))
print(pd.get_option('display.max_rows'))
# options属性によるアクセス
print(pd.options.display.min_rows)
print(pd.options.display.max_rows)
# 出力
20
60
この2つのオプションは分かりにくいですが、「データフレームの行数がdisplay.max_rowsを超えた場合は、display.min_rows行だけ表示する」という意味です。従って、上記の場合、60オブザベーション以下のデータフレームは全ての行を表示しますが、61オブザベーション以上のデータフレームについては途中を省略して最初と最後の20オブザベーションだけを表示することになります。
今の場合ですとデータフレームは100オブザベーションを含んでいますので、display.max_rowsを100行以上に設定すると、全ての行が表示されるようになります。
また、省略された場合の表示行数を増やしたい場合は、display.min_rowsを増やせばよいことになります。試しにdisplay.min_rowsを30に設定しましょう。オプションの設定は、set_option関数もしくは、options属性を変更することで行います。
# %%
# set_option関数を用いる場合
pd.set_option("display.min_rows",30)
# %%
# options属性によるアクセス
pd.options.display.max_rows = 60
# %%
# データフレームの再表示
print(df)
# 出力
x y e
0 8.013504 18.317503 1.290495
1 9.896525 22.444125 1.651074
2 11.326705 26.724520 3.071111
3 8.938435 18.402628 -0.474241
4 6.862927 16.547593 1.821740
5 10.850879 22.979716 0.277957
6 9.264085 20.722213 1.194043
7 6.849750 13.762926 -0.936575
8 11.286648 22.471414 -1.101883
9 10.799512 22.553242 -0.045781
10 4.228583 7.170566 -2.286601
11 11.212478 23.096968 -0.327989
12 8.700634 17.235308 -1.165959
13 6.341005 20.754819 7.072809
14 8.717844 20.486063 2.050374
.. ... ... ...
85 7.623332 17.575759 1.329095
86 8.119302 16.581371 -0.657233
87 3.639397 3.949449 -4.329345
88 6.937774 19.882245 5.006697
89 3.661514 11.380440 3.057411
90 5.775179 11.460086 -1.090272
91 9.078126 19.656764 0.500513
92 7.534294 13.864200 -2.204387
93 8.182152 17.203746 -0.160558
94 10.004772 20.587155 -0.422388
95 8.927801 14.040083 -4.815520
96 5.269992 15.510429 3.970445
97 10.328037 20.252442 -1.403633
98 8.183177 18.688349 1.321994
99 5.729897 13.355884 0.896091
[100 rows x 3 columns]