# Задания на обработку данных в bash ## 1 Вызовите `"for f in `seq 20`; do echo $RANDOM >> rnds; done"` и отсортируйте данные `rnds`, в алфавитном порядке, по возрастанию чисел. ``` sort rnds sort -n rnds ``` ## 2 Сохраните эти первые 10 записей датасета titanic в файл `titanic.csv` для последующих заданий: ``` PassengerId,Survived,Pclass,Name,Sex,Age,SibSp,Parch,Ticket,Fare,Cabin,Embarked 1,0,3,"Braund, Mr. Owen Harris",male,22,1,0,A/5 21171,7.25,,S 2,1,1,"Cumings, Mrs. John Bradley (Florence Briggs Thayer)",female,38,1,0,PC 17599,71.2833,C85,C 3,1,3,"Heikkinen, Miss. Laina",female,26,0,0,STON/O2. 3101282,7.925,,S 4,1,1,"Futrelle, Mrs. Jacques Heath (Lily May Peel)",female,35,1,0,113803,53.1,C123,S 5,0,3,"Allen, Mr. William Henry",male,35,0,0,373450,8.05,,S 6,0,3,"Moran, Mr. James",male,,0,0,330877,8.4583,,Q 7,0,1,"McCarthy, Mr. Timothy J",male,54,0,0,17463,51.8625,E46,S 8,0,3,"Palsson, Master. Gosta Leonard",male,2,3,1,349909,21.075,,S 9,1,3,"Johnson, Mrs. Oscar W (Elisabeth Vilhelmina Berg)",female,27,0,2,347742,11.1333,,S 10,1,2,"Nasser, Mrs. Nicholas (Adele Achem)",female,14,1,0,237736,30.0708,,C ``` ## 3 Выведите первую колонку, используя `awk`. ``` awk -F, '{print $1}' file.csv ``` ## 4 Выведите содержимое файла без заголовка. ``` tail -n +2 file.csv ``` ## 5 Выведите первую и третью колонку файла, используя `awk`. ``` awk -F, '{print $1 "," $3}' file.csv ``` ## 6 Выведите только те строки, которые содержат строку `male` или `female`: ``` grep "female" file.csv ``` ## 7 Отсортируйте значения `titanic.csv` по значению `Ticket` (9 колонка): ``` sort -t, -k2 file.csv ``` ## 8 Уберите дублирующиеся строки на основании третьей колонки, используя `awk`. ``` awk -F, '!seen[$1]++' file.csv ``` ## 9 Посчитайте сумму колонки `Fare`, используя `awk`. ``` awk -F, '{sum+=$3} END {print sum}' file.csv ``` ## 10 Сконвертируйте файл из csv в json формат, используя `jq`. ``` jq -R -r 'split(",") | {name:.[0],age:.[1]}' file.csv ``` ## 11 Используя `awk` сконвертируйте строки со значениями из колонок `PassengerId`, `Survived`, `Pclass` файла в набор `SQL INSERT` утверждений, которые можно использовать для импорта в SQL базу данных. Используйте `awk`. ``` awk -F, '{printf "INSERT INTO table VALUES (\"%s\", \"%s\", \"%s\");\n", $1, $2, $3}' file.csv ``` ## 12 Конвейеры Unix позволяли организовывать сложные преобразования данных ещё до фреймворков обработки больших данных и сейчас иногда могут быть даже быстрее [Adam D. Command-line Tools can be 235x Faster than your Hadoop Cluster]. Найдите гистограмму слов по методу mapreduce с помощью утилит и операторов конвейера. Гистограмма должна быть отсортирована по частоте встречи слова в тексте. MapReduce выполняет следующие действия в первой фазе: разбивает содержимое файла на слова, сортирует их, каждому слову сопоставляет 1. Во второй фазе складывает единицы каждого слова, что даёт конечный результат. Используйте любой набор утилит и конструкций bash. Одно из решений задействует: `uniq`, `sort`, `cat`, `sed`. ``` cat /var/log/dpkg.log | sed 's/ /\n/g' | sort -k1 | uniq -c | sort -k1 -n ``` ## 13 Повысьте права до пользователя root с помощью команды `su - root`. Найдите в системном логе `/var/log/auth.log` события "authentication failure", оставьте в строке только дату и имя пользователя и сохраните их в файл. Следуя правилам хорошего тона, после выполнения операций не забудьте выйти из аккаунта суперпользователя. ``` cat /var/log/auth.log | grep 'authentication failure' | sed 's/^\(.\{15\}\).*authentication failure; logname=\(\w\+\) .*/\1 \2/g' ``` ## 14 Выведите 10 самых больших открытых файлов в системе, используя `lsof` и `awk`. ``` lsof / | awk '{ if($7 > 1048576) print $7/1048576 "MB" " " $9 " " $1 }' | sort -n -u | tail ``` # Man страницы ``` man awk man lsof man sort man uniq man cat man sed man jq man su ``` # Ссылки [Adam D. Command-line Tools can be 235x Faster than your Hadoop Cluster] https://adamdrake.com/command-line-tools-can-be-235x-faster-than-your-hadoop-cluster.html