li_1 = ["a","b","c","d","e"]
li_2 = [1,2,3,4,5]
#for문 밖에서 선언한 li_1의 변수들을 사용할 수 없음
for i,j in zip(li_1, li_2):
i = j
for i,j in zip(li_1, li_2):
globals()[i] = j #for문 밖에서 선언한 li_1의 변수들을 사용할 수 있음
#주의사항
이때 선언한 변수 i를 그대로 사용하게되면, li_1의 변수명들을 사용할 수 없습니다.
그래서 추가적으로 필요한 개념이 globals()함수 입니다.
for문 안에서 변수명을 사용할 때는 globals()함수를 이용하여 for문 밖에서 선언한 변수명을 그대로 사용할 수 있게해줍니다.
from collections import Counter #라이브러리 호출
df['noun'] = df['content'].apply(lambda x : mecab.nouns(x)) #데이터프레임 본문에서 명사만 추출
#전처리(불용어 제거 및 텍스트 정제)
noun = df['noun'].apply(lambda x : [item for item in x if item not in stop_words])
noun = noun.apply(lambda x : [word for word in x if len(word) > 1])
#counter 함수를 사용하기위해 list화
noun_list = []
for tokens in noun:
for token in tokens:
noun_list.append(token)
#키워드 빈도수 확인
noun_count = Counter(noun_list)
#상위 50개 추출
noun_50 = noun_count.most_common(50)
from nltk import bigrams #nltk에 bigrams 패키지 사용
#전처리
noun = df['content'].apply(lambda x : [item for item in x if item not in stop_words]) #불용어 제거
noun = df['content'].apply(lambda x : [word for word in if len(word) > 1]) #글자 수가 1개보다 적은 단어는 제거
bgrams = [bigrams(word) for word in noun] #bgrams라는 변수에 전처리된 단어들을 적용
token = []
for i in bgrams:
token += ([x for x in i])