删除重复行我读过CSV文件放入R数据帧中。一些行在其中一个列中具有相同的元素。我想删除该列中重复的行。例如:platform_external_dbus 202 16 google 1platform_external_dbus 202 16 space-ghost.verbum 1platform_external_dbus 202 16 localhost 1platform_external_dbus 202 16 users.sourceforge 8platform_external_dbus 202 16 hughsie 1我只想要这些行中的一行,因为其他行在第一列中有相同的数据。
3 回答
![?](http://img1.sycdn.imooc.com/54584e1f0001bec502200220-100-100.jpg)
冉冉说
TA贡献1877条经验 获得超1个赞
# in the above example, you only need the first three columnsdeduped.data <- unique( yourdata[ , 1:3 ] ) # the fourth column no longer 'distinguishes' them, # so they're duplicates and thrown out.
![?](http://img1.sycdn.imooc.com/533e4c640001354402000200-100-100.jpg)
慕斯王
TA贡献1864条经验 获得超2个赞
对于来此寻找重复行删除的一般答案的人,请使用!duplicated():
a <- c(rep("A", 3), rep("B", 3), rep("C",2))
b <- c(1,1,2,4,1,1,2,2)
df <-data.frame(a,b)
duplicated(df)
[1] FALSE TRUE FALSE FALSE FALSE TRUE FALSE TRUE
> df[duplicated(df), ]
a b
2 A 1
6 B 1
8 C 2
> df[!duplicated(df), ]
a b
1 A 1
3 A 2
4 B 4
5 B 1
7 C 2
- 3 回答
- 0 关注
- 728 浏览
添加回答
举报
0/150
提交
取消