Pythonで重複を一掃!初心者でも簡単な5ステップ

Pythonプログラミングで重複データを削除するサンプルコードPython
この記事は約7分で読めます。

 

【サイト内のコードはご自由に個人利用・商用利用いただけます】

この記事では、プログラムの基礎知識を前提に話を進めています。

説明のためのコードや、サンプルコードもありますので、もちろん初心者でも理解できるように表現してあります。

基本的な知識があればカスタムコードを使って機能追加、目的を達成できるように作ってあります。

※この記事は、一般的にプロフェッショナルの指標とされる『実務経験10,000時間以上』を凌駕する現役のプログラマチームによって監修されています。

サイト内のコードを共有する場合は、参照元として引用して下さいますと幸いです

※Japanシーモアは、常に解説内容のわかりやすさや記事の品質に注力しております。不具合、分かりにくい説明や不適切な表現、動かないコードなど気になることがございましたら、記事の品質向上の為にお問い合わせフォームにてご共有いただけますと幸いです。
(送信された情報は、プライバシーポリシーのもと、厳正に取扱い、処分させていただきます。)

はじめに

プログラミングの世界では、効率の良いデータ管理が重要です。

そのためには、不必要なデータ、特に重複したデータを削除することが欠かせません。

Pythonを使用すると、これが非常に簡単になります。初心者でも簡単に理解できるように、Pythonで重複を一掃する方法を5つのステップで解説します。

●Pythonとは

Pythonは、1991年にグイド・ヴァンロッサムによって開発された汎用の高水準プログラミング言語です。

その特徴として、コードが読みやすく、また明瞭な構文を持っている点が挙げられます。

そのため、初心者でも簡単に理解しやすく、学びやすいプログラミング言語として世界中で広く利用されています。

●Pythonで重複を削除する方法

Pythonには重複を削除するためのいくつかの方法があります。

それでは、その中でも一般的な3つの方法を解説します。

○Pythonのset関数について

Pythonでは、setという組み込み関数を使用することで、重複したデータを容易に削除することができます。

set関数は、リストやタプルなどのイテラブル(反復可能)なデータ型から重複する要素を除去した新たなsetオブジェクトを生成します。

□サンプルコード1:set関数を用いた重複削除

下記のサンプルコードでは、リスト内の重複した要素を削除するためにset関数を使用しています。

この例では、元のリストから重複した要素を削除して新しいsetオブジェクトを生成し、その後、再度リストに変換しています。

# 重複要素を含むリストを作成
duplicate_list = [1, 2, 2, 3, 4, 4, 5, 6, 6, 7]

# set関数を用いて重複要素を削除
unique_set = set(duplicate_list)

# setをリストに変換
unique_list = list(unique_set)

print(unique_list)

このコードを実行すると、出力結果は次のようになります。

[1, 2, 3, 4, 5, 6, 7]

このように、set関数を使うことで簡単に重複要素を削除することができます。

○Pandasのdrop_duplicatesメソッドについて

PandasはPythonでデータ分析を行うためのライブラリであり、大量のデータを効率的に処理するための多くの機能を提供しています。

その一つが、DataFrameの重複行を削除するdrop_duplicatesメソッドです。

□サンプルコード2:Pandasのdrop_duplicatesメソッドを用いた重複削除

下記のサンプルコードでは、PandasのDataFrame内の重複行を削除するためにdrop_duplicatesメソッドを使用しています。

この例では、元のDataFrameから重複した行を削除して新しいDataFrameを生成しています。

import pandas as pd

# 重複行を含むDataFrameを作成
df = pd.DataFrame({
    'A': [1, 2, 2, 3, 4, 4],
    'B': ['a', 'b', 'b', 'c', 'd', 'd']
})

# drop_duplicatesメソッドを用いて重複行を削除
df_unique = df.drop_duplicates()

print(df_unique)

このコードを実行すると、出力結果は次のようになります。

   A  B
0  1  a
1  2  b
3  3  c
4  4  d

このように、Pandasのdrop_duplicatesメソッドを使うことで、DataFrameの重複行を簡単に削除することができます。

○Pythonのitertoolsモジュールについて

Pythonのitertoolsモジュールは、効率的なループの実行を支援するための多くの関数を提供しています。

その中には、重複を削除するための関数も含まれています。

□サンプルコード3:itertoolsモジュールを用いた重複削除

下記のサンプルコードでは、itertoolsモジュールのgroupby関数を使用してリスト内の連続した重複要素を削除しています。

この例では、元のリストから連続して重複した要素を削除して新しいリストを生成しています。

from itertools import groupby

# 連続した重複要素を含むリストを作成
list_with_duplicates = [1, 2, 2, 3, 3, 3, 4, 4, 4, 4]

# groupby関数を用いて重複要素を削除
unique_list = [key for key, group in groupby(list_with_duplicates)]

print(unique_list)

このコードを実行すると、出力結果は次のようになります。

[1, 2, 3, 4]

このように、itertoolsモジュールのgroupby関数を使うことで、連続した重複要素を簡単に削除することができます。

●重複削除の応用例

Pythonでの重複削除は、より広範な応用が可能です。

それでは、リストやデータフレームの中から重複を削除する例を解説していきます。

○リスト内の重複削除

Pythonのリスト内での重複削除は、set関数やitertoolsのgroupby関数を使用して簡単に行うことができます。

□サンプルコード4:リスト内の重複削除

下記のサンプルコードでは、リスト内の重複した要素を削除するためにset関数を使用しています。

# 重複要素を含むリストを作成
list_with_duplicates = ['a', 'b', 'b', 'c', 'c', 'c', 'd', 'd', 'd', 'd']

# set関数を用いて重複要素を削除
unique_list = list(set(list_with_duplicates))

print(unique_list)

このコードを実行すると、出力結果は次のようになります。

['d', 'a', 'c', 'b']

このように、リスト内の重複要素を簡単に削除することができます。

○データフレーム内の重複削除

Pandasのデータフレーム内での重複削除は、drop_duplicatesメソッドを使用して簡単に行うことができます。

□サンプルコード5:データフレーム内の重複削除

下記のサンプルコードでは、データフレーム内の重複行を削除するためにdrop_duplicatesメソッドを使用しています。

import pandas as pd

# 重複行を含むデータフレームを作成
df_with_duplicates = pd.DataFrame({
    'Column1': ['A', 'B', 'B', 'C', 'C', 'C'],
    'Column2': ['X', 'Y', 'Y', 'Z', 'Z', 'Z']
})

# drop_duplicatesメソッドを用いて重複行を削除
df_unique = df_with_duplicates.drop_duplicates()

print(df_unique)

このコードを実行すると、出力結果は次のようになります。

  Column1 Column2
0       A       X
1       B       Y
3       C       Z

このように、データフレーム内の重複行を簡単に削除することができます。

●Pythonで重複を削除する際の注意点と対処法

Pythonで重複を削除する際には、いくつかの注意点があります。

その一つは、set関数を使用すると元のデータの順序が失われてしまう点です。

元の順序を保持したまま重複を削除したい場合には、itertoolsのgroupby関数やPandasのdrop_duplicatesメソッドを使用することを推奨します。

また、Pythonの辞書ではキーが一意であるため、辞書を利用することで重複の問題を避けることも可能です。

しかし、辞書ではキーと値のペアが必要となるため、単一のデータセットで重複を避けたい場合には、set関数、groupby関数、drop_duplicatesメソッドが便利です。

まとめ

Pythonを使用して重複を一掃する方法は多数存在します。

初心者でも簡単に利用できるset関数、Pandasのdrop_duplicatesメソッド、itertoolsのgroupby関数などがあります。

これらの方法を理解し、自分のコードに適切に適用することで、効率的なデータ管理を実現できます。

以上がPythonで重複を一掃するための5ステップです。これらのステップを踏むことで、Python初心者でも簡単に重複データを削除することが可能になります。