Python과 Scrapy를 사용한 크롤링

단순 문서 파싱에는 Beautiful Soup을 쓰는게 좋고, 주기적으로 여러 범위에서 크롤링을 해올땐 프레임워크 형태로 제공되는 Scrapy가 좋다. 아래는 Scrapy에 대한 설명이다.

윈도우의 경우에는 Microsoft Visual C++ Build Tools (http://landinghub.visualstudio.com/visual-cpp-build-tools)가 있어야 설치가 된다. (없을경우 에러메시지에서 설명해줌)

위의 명령어로 REPL쉘을

React를 browserify로 빌드하기

react의 구동 환경은 브라우저임에도 불구하고 react 컴포넌트들을 다운받아 보면 var React = require(‘react’); 이와 같이 시작하고 있는 것들을 심심찮게 보게 된다. 물론 이런 문법이 바로 브라우저에서 돌아갈리는 만무하다. 그래서 이럴때 필요한게 바로 browserify나 webpack이다. 개인적으로 browserify를 사용하므로 이에 대해 알아보자.

자주쓰는 npm 명령어

npm은 node.js에서 의존성 관리를 위해 사용한다. 개인적으로 자주쓰는 npm에 대한 사용법을 정리한다.

현재 프로젝트 하위에 node_module 폴더를 만들어 해당 모듈을 설치한다. –save이나 –save-dev를 뒤에 붙이게 되면 package.json에도 설치하는 패키지를 같이 추가시켜준다. 프로젝트 디렉토리에서 단순히 npm install만 입력하게 되면 package.json에서