tente abaixo de awk
se não houver nenhuma linha com a primeira coluna exclusiva.
awk -F, 'pre==$1 { print; next }{ pre=$1 }' infile
Ou abaixo, em vez disso, no caso geral:
awk -F, 'pre==$1 { print; is_uniq=0; next }
# print when current& previous lines' 1st column were same
# unset the 'is_uniq=0' variable since duplicated lines found
is_uniq { print temp }
# print if previous line ('temp' variable keep a backup of previous line) is a
# uniq line (according to the first column)
{ pre=$1; temp=$0; is_uniq=1 }
# backup first column and whole line into 'pre' & 'temp' variable respectively
# and set the 'is_uinq=1' (assuming might that will be a uniq line)
END{ if(is_uniq) print temp }' infile
# if there was a line that it's uniq and is the last line of input file, then print it
mesmo script com comentários gratuitos:
awk -F, 'pre==$1 { print; is_uniq=0; next }
is_uniq { print temp }
{ pre=$1; temp=$0; is_uniq=1 }
END{ if(is_uniq) print temp }' infile
Observação: isso pressupõe que o arquivo de entrada infile
esteja classificado no primeiro campo, se não for o caso, será necessário passar o arquivo classificado para
awk ... <(sort -t, -k1,1 infile)