전체 글
-
WordCloud : 시작하기 - 기초Selenium 2020. 2. 9. 00:44
>>'Pandas : 시작하기 - 기초'에서 만든 json파일을 이용하였습니다. 1) Noun extraction import pandas as pd from konlpy.tag import Twitter df = pd.read_csv('tweets.csv') string_list = "\n\n".join(df['content']) nlpy = Twitter() nouns = nlpy.nouns(string_list) print(nouns) nouns_str = '\n'.join(nouns) ['경산', '맛집', '경산', '송시몬', '피자', '이야기', '송', '시몬', '피자', '유키', '헤어', '경산', '미용실', '미용실', '경산', '맛집', '경산', '맛집', '정', '평동..
-
Pandas 판다스 : 시작하기 - 기초Selenium 2020. 2. 9. 00:35
>> 'Selenium 셀레니움 : 시작하기(1) - 설치' , 'Selenium 셀레니움 : 시작하기 (2) - 크롤링 기초' 에서 만든 json파일을 사용했습니다. 1) Import Pandas import pandas as pd 2) Load Json File import json read_data = json.load(open('tweets.json')) print(read_data) {'screen_name': ['@openwide1', '@yukitop1', '@loggong', '@yellowlove2323', '@nayusi0610', '@misigdolseu', '@EXIDofficial', '@loggong', '@nayusi0610', '@noproblem25', '@loggong',..
-
Selenium 셀레니움 : 시작하기 (2) - 크롤링 기초Selenium 2020. 2. 8. 23:47
1) Import Selenium from selenium import webdriver 2) Initialize Selenium from selenium import webdriver browser = webdriver.Chrome('chromedriver.exe') 3) Open Browser from selenium import webdriver url = 'https://www.twitter.com/' browser.get(url) input("종료를 하시려면 아무키나 입력해주세요. : ") # 종료하기 browser.quit() 4) Maximize Browser from selenium import webdriver # Options를 사용하기 위해 모듈 import from selenium...