Interview - gusenov/kb GitHub Wiki
- interviewing.io
- Tproger / Материалы для подготовки к собеседованию и разборы распространенных задач
- data engineer interview by Zach Wilson
- LinkedIn / Recommended materials to crack your next tech interview by Alex Xu
Books
- Coding Interviews. Questions, Analysis & Solutions by Harry He - 304 pages
- Programming Interviews Exposed: Coding Your Way Through the Interview by John Mongan, Noah Suojanen Kindler, Eric Giguère - 384 pages
- CRACKING the CODING INTERVIEW by GAYLE LAAKMANN McDowELL
- Dynamic Programming for Coding Interviews. A Bottom-Up approach to problem solving by Meenakshi & Kamal Rawat - 142 pages
- iq.OPENGENUS.org
- Problems on Array: For Interviews and Competitive Programming by Aditya Chatterjee, Tushti, Ue Kiao - 336 pages
- Binary Tree Problems. Must for Interviews and Competitive Coding by Aditya Chatterjee, Srishti Guleria, Ue Kiao - 373 pages
- Top coding interview problems asked in Google with solutions: Algorithmic Approach by Lin Quan - 162 pages
- Elements of Programming Interviews by Adnan Aziz, Tsung-Hsien Lee, Amit Prakash
- Coding Interview Questions by Narasimha Karumanchi - 520 pages
- Ace the Programming Interview. 160 Questions and Answers for Success by Edward Guiness - 448 pages
- The Recursive Book of Recursion. Ace the Coding Interview with Python and JavaScript by Al Sweigart - 328 pages
Podcasts
- Радио-Т Подкаст 920 00:38:20
- Хорошая задача для интервью на Middle+. Есть 2 источника данных. Один файл размером в ТБ. И есть еще 28 файлов поменьше, которые все вместе занимают пару-тройку ТБ. Нужно максимально эффективным IO (другими словами 2 раза по файлу не ходить чтобы терабайты 2 раза не читать) прочитать записи из всех этих файлов, типа параллельно поскольку интересует скорость, и записать результат в сортированный по времени файл и сплитенный по символу (это все биржевые данные). Есть один сортированный файл, есть 28 других сортированных файлов, надо на лету уметь из всех 29 файлов читать, делать это эффективно и гарантированно сортированно записывать в 15 000 новых файлов поскольку там символов 15 000 будет. В память они все не влазят потому что их терабайты.