Ресурсы для лексического , синтаксического анализа и tokenising в Python

люди Могут мне точку ресурсов на lexing, анализа и tokenising с Python?

я делаю немного взлома на проект с открытым исходным кодом (струна), и хотел сделать несколько изменений в код, который lexes, анализирует и tokenises команды вошел в нее. Как это реально работающий код он достаточно сложен, и немного сложно работать.

я еще не работал на код lex/parse/tokenise раньше, так что я думал, что один подход будет работать через учебник или два на этом аспекте. Я надеюсь, достаточно, чтобы узнать, как перемещаться по коду я, собственно, хочу изменить. Есть ли что-нибудь подходящий? (В идеале это может быть сделано в день, без необходимости покупать и читать dragon book первый ...)

Редактировать: (7 октября 2008 г.) Ни один из перечисленных ответов достаточно дать то, чего я хочу. С ними я мог создания парсеров с нуля, но я хочу узнать, как написать свой собственный базовый парсер с нуля, а не с помощью lex и yacc или аналогичные инструменты. Сделав это, я могу тогда понять существующий код лучше.

Так, кто-то может мне точку учебник, где я могу построить базовый парсер с нуля, используя только python?

Найдено 7 ответов:

Resources for lexing, tokenising and parsing in python

http://stackoverflow.com/questions/36953/resources-for-lexing-tokenising-and-parsing-in-python

Посмотреть решение →