본문 바로가기

분류 전체보기

[Python]MongoDB 값 불러오기 & 수정하기 (feat. db, update) pymongo가 import 되어 있는 상태에서 dbsparta에 db 값을 저장한다. from pymongo import MongoClient client = MongoClient('localhost', 27017) db = client.dbsparta movie = db.movies.find_one({'title':'매트릭스'}) target_star = movie['star'] #매트릭스의 별점을 가져오기 => 9.39 target_movies = list(db.movies.find({'star':target_star},{'_id':False})) #매트릭스의 별점과 같은 값을 가져오기 for tm in target_movies: print(tm['title']) => {'rank': '17', '.. 더보기
[Python] Pymongo (feat. insert, doc) import requests from bs4 import BeautifulSoup headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'} data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.nhn?sel=pnt&date=20200303', headers=headers) from pymongo import MongoClient #pymongo 사용한다고 선언 client = MongoClient('localhost', 27017) db = c.. 더보기
[Python] Pymongo (feat. insert, find, delete, update) Pymongo를 사용하여 mongoDB 데이터 입력, 찾기, 수정, 삭제를 해보려고 한다. 우선 Pycham에서 pymong를 install 해준다. Pymongo install 완료 후 첨부 된 Pymongo기본코드를 입력해준다. ---------------------------------------------------------------------------------------------------------------- from pymongo import MongoClient # pymongo르 쓰겠습니다. client = MongoClient('localhost', 27017) # 내 컴퓨터에서 작동 중인 mongoDB에 접속하곘습니다. db = client.dbsparta # dbspart.. 더보기
[DB] DB 개괄 DB를 사용하는 이유 : 데이터를 잘 찾고, 활용하기 위해 SQL : 엑셀과 비슷하다. 행과 열을 미리 정해 놓고 데이터를 넣는다. ex)MS-SQL, My-SQL, Oracle 등 NoSQL : 딕셔너리 형태로 데이터가 들어간다. 모든 형태에 자료가 들어가 있지 않다 ex) 몽고 DB 학생 기록부에 집 전화의 여부에 따라 입력 또는 공란 데이터를 유무에 상관없이 유연하게 입력한다. 더보기
[몽고DB, 로보3T] 설치 및 작동 확인 몽고 DB 작동 확인 방법은 http://localhost:27017/ 에 진입한 다음 아래와 같이 It looks like you are trying to access MongoDB over HTTP on the native driver port. 라는 문구가 나오는 웹페이지이면 몽고 DB가 정상적으로 작동되고 있다는 것이다. Robo 3T 작동 확인 화면은 Robo 3T를 실행시켜 아래와 같이 출력 된다면 정상 작동 중인 것이다. 몽고 DB DB인 데이터를 저장하고 있는 창고로 눈에 보이지 않지만 작동되고 있다. 로보 3T 몽고 DB의 데이터 베이스를 볼 수 있게 하는 프로그램이다. 더보기
[Python] 웹페이지 데이터 뽑아오기2 (feat. img alt) 아래 웹페이지에서 영화 순위, 영화명, 별점의 데이터를 크롤링 해보려고 한다. URL : https://movie.naver.com/movie/sdb/rank/rmovie.naver?sel=pnt&date=20200303 import requests from bs4 import BeautifulSoup headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'} data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.nhn?sel=pnt&date=2.. 더보기
[Python] 웹페이지 데이터 뽑아오기(feat. 크롤링,스크래핑) 크롤링 : 웹페이지 상에서 받아온 자료를 가지고 솎아 내는 것 아래 영화 랭킹에서 자료를 받아서 속아 내어보자. URL : https://movie.naver.com/movie/sdb/rank/rmovie.nhn?sel=pnt&date=20200303 랭킹 : 네이버 영화 영화, 영화인, 예매, 박스오피스 랭킹 정보 제공 movie.naver.com 크롤링 기본 세팅은 bs4를 설치해주고 아래의 첨부된 메모장의 코드를 따와서 코딩창에 입력해준다. import requests from bs4 import BeautifulSoup #requests로 데이터를 받아오고, BeautifulSoup에서 속아낼거다. headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0.. 더보기
[Python] requets (feat. rjson) import requests # requests 라이브러리 설치 필요 r = requests.get('http://openapi.seoul.go.kr:8088/6d4d776b466c656533356a4b4b5872/json/RealtimeCityAir/1/99') rjson = r.json() //위 오픈 API URL은 실시간 서울시 미세먼지 값을 가지고 있다. print(rjson['RealtimeCityAir']['row'][0]['MSRSTE_NM']) //오픈 API에서 실시간으로 데이터를 잘 받아오는지 확인 gus = rjson['RealtimeCityAir']['row'] //gus에 API에서 받아오는 row값 을 선언해준다. for gu in gus: gu_name = gu['MSRSTE.. 더보기
[Python] 패키지 설치 패키지는 모듈(일종의 기능의 묶음)을 모아 놓은 단위이다. 패키지의 묶음은 라이브러리라고 볼 수 있으며 외부 라이브러리를 사용하기 위해 패키지 설치한다. 패키지 설치 = 외부 라이브러리 설치라고 봐도 무방하며 패키지 설치한다. 설치 방법 File - Setting - Ptrhon interpreter - + 버튼 - requests 입력 - 선택 - install package 하면 기본 세팅은 완료된다. 더보기
[Python] 함수, 조건문 # 함수 def sum_all(a,b,c) : return a+b+c def mul(a,b) : return a*b result = sum_all(1,2,3) + mul(10,10) #sum_all 안에 a,b,c에 1,2,3이라는 값을 넣는다. mul에는 10,10이라는 값을 넣어 계산한다. #(1+2+3) + (10*10) print(result) => 106 #조건문 age = 25 if age > 20 : print('성인입니다') # age가 20 초과이면 '성인입니다' 출력 else : print('청소년입니다.') # age가 20 초과하지 않으면 '청소년입니다' 출력 => 성인입니다. # 함수 + 조건문 def is_adult(age): if age > 20 : print('성인입니다') .. 더보기