Supongamos que tengo pandas DataFrame como este:
>>> df = pd.DataFrame({'id':[1,1,1,2,2,2,2,3,4],'value':[1,2,3,1,2,3,4,1,1]})
>>> df
id value
0 1 1
1 1 2
2 1 3
3 2 1
4 2 2
5 2 3
6 2 4
7 3 1
8 4 1
Quiero obtener un nuevo DataFrame con los 2 registros principales para cada ID, como este:
id value
0 1 1
1 1 2
3 2 1
4 2 2
7 3 1
8 4 1
Puedo hacerlo numerando registros dentro de un grupo tras otro por:
>>> dfN = df.groupby('id').apply(lambda x:x['value'].reset_index()).reset_index()
>>> dfN
id level_1 index value
0 1 0 0 1
1 1 1 1 2
2 1 2 2 3
3 2 0 3 1
4 2 1 4 2
5 2 2 5 3
6 2 3 6 4
7 3 0 7 1
8 4 0 8 1
>>> dfN[dfN['level_1'] <= 1][['id', 'value']]
id value
0 1 1
1 1 2
3 2 1
4 2 2
7 3 1
8 4 1
Pero, ¿hay un enfoque más efectivo / elegante para hacer esto? Y también hay un enfoque más elegante para los registros de números dentro de cada grupo (como la función de ventana SQL row_number () ).
python
pandas
greatest-n-per-group
window-functions
top-n
Roman Pekar
fuente
fuente
Respuestas:
Has probado
df.groupby('id').head(2)
Ouput generado:
(Tenga en cuenta que es posible que deba ordenar / ordenar antes, según sus datos)
EDITAR: Según lo mencionado por el interrogador, use
df.groupby('id').head(2).reset_index(drop=True)
para eliminar el índice múltiple y aplanar los resultados.fuente
.reset_index(drop=True)
cumcount
(numere los registros en cada grupo)id
entonces hazlodf.sort_values(['id', 'value'], axis=0).groupby('id').head(2)
. Otro ejemplo, el mayor valor porid
es dado pordf.sort_values(['id', 'value'], axis=0).groupby('id').tail(1)
.Desde 0.14.1 , ahora puede hacer
nlargest
ynsmallest
en ungroupby
objeto:Hay una ligera extrañeza que se obtiene el índice original en allí también, pero esto podría ser realmente útil en función de lo que su índice original era .
Si no le interesa, puede
.reset_index(level=1, drop=True)
deshacerse de él por completo.(Nota: desde 0.17.1 también podrá hacer esto en un DataFrameGroupBy, pero por ahora solo funciona con
Series
ySeriesGroupBy
.)fuente
unique_limit(n)
? ¿Como si quisiera los primeros n valores únicos? Si lo pidonlargest
, clasificará todo el df que puede ser costosodf.groupby([pd.Grouper(freq='M'), 'A'])['B'].count().nlargest(5, 'B')
esto solo devuelve el top 5 en general de toda la serie, no por cada grupoDataFrameGroupBy
s parece ser falsa, la solicitud de extracción vinculada parece agregarse solonlargest
aDataFrame
s simples . Lo cual es bastante desafortunado, porque ¿qué pasa si desea seleccionar más de una columna?A veces, ordenar todos los datos por adelantado lleva mucho tiempo. Podemos agrupar primero y hacer topk para cada grupo:
fuente