Страница: 1 |
Страница: 1 |
Вопрос: Удаление дубликатов из файла, мож кто уже делал?
Добавлено: 12.12.06 15:32
Автор вопроса: ZXC
Вообщем есть файл, в нём много одинаковых строк/слов мож кто уже делал программу которая удаляла все дубли в файле? дайте код =)
Ответы
Всего ответов: 7
Номер ответа: 1
Автор ответа:
Sharp
Лидер форума
ICQ: 216865379
Вопросов: 106
Ответов: 9979
Web-сайт:
Профиль | | #1
Добавлено: 12.12.06 18:46
Добавляй хэши строк в мультимап и после первого прохода удаляй все дубли, имеющие одинаковый хэш.
Номер ответа: 2
Автор ответа:
AgentFire
ICQ: 192496851
Вопросов: 75
Ответов: 3178
Профиль | | #2
Добавлено: 12.12.06 19:25
Что есть hash?
Номер ответа: 3
Автор ответа:
gvozd
Разработчик Offline Client
Вопросов: 164
Ответов: 1317
Web-сайт:
Профиль | | #3
Добавлено: 12.12.06 20:32
А что есть мультимап?
Номер ответа: 4
Автор ответа:
EROS
Вопросов: 58
Ответов: 4255
Профиль | | #4
Добавлено: 12.12.06 20:47
Учите мат часть!! )))
За hash'ем в google... А что касаемо мультимап, то я, полагаю, имелось ввиду что то типа MultiMap(мини-карта). Любой из доступных способов хранения пар "ключ-значение".. Делаешь карту своего файла и удаляешь ненужное..
А вот по поводу
я так думаю, ты забыл кое что добавить. )))
P/S/ подсказка.. это не волшобное слово.. а нечто более материальное..
Номер ответа: 5
Автор ответа:
-=Fenix=-
Вопросов: 33
Ответов: 81
Профиль | | #5
Добавлено: 12.12.06 21:45
Или просто - открываешь файл, и по строчно считывая из одного на предмет не совпадения строк, создаёшь новый файл +)
Номер ответа: 6
Автор ответа:
Sharp
Лидер форума
ICQ: 216865379
Вопросов: 106
Ответов: 9979
Web-сайт:
Профиль | | #6
Добавлено: 13.12.06 07:01
Тут основная сложность состоит в том, что сравнивать придется со всеми уже обработанными строками, а их много. Поэтому и нужен мультимап.
Номер ответа: 7
Автор ответа:
EROS
Вопросов: 58
Ответов: 4255
Профиль | | #7
Добавлено: 15.12.06 00:31
А если речь пойдет о поиске дубликатов отдельно взятых слов.. Что тогда, вообще засада?