목록일지 (32)
종우의 삶 (전체 공개)

전날에 이어 미니프로젝트 웹페이지를 보완하였다. 오늘 떠올리거나 부딪힌 문제들 1.자신의 추천 영화를 작성하면 daum영화 사이트에서 크롤링 한 데이터들을 가져온다. 아니면 단순히 이미지 포스터 이미지url을 사용할 것인가? -> 해결. 처음에는 더미데이터 생각하여 이미지url을 따와서 붙일 생각이었으나 어차피 목표는 DB를 활용한 포스팅, 겟 등등 다 써야하는 것이기에. 다음영화 사이트에서 크롤링한 포스터 제목 등등을 사용하여야한다. 2. 완성 후 배포는 어떻게 할 것인가? -> 해결. 처음엔 github를 이용하여도 될 것이라 생각했지만 깃헙은 정적 웹페이지만 배포가능하기 때문에 어쩔수 없이 그 무서운 AWS 를 사용하여야 한다. //새로운 문제// AWS 배포는 어떻게 할 것인가? 3. main.h..
2023년 5월 8일 부터 새로운 팀과 함께 미니 프로젝트를 시작하였다. 5월 8일 S.A를 작성하여 제출하고 오늘부터 본격적인 프로젝트 진행을 하게되었다. 팀원소개는 개인정보라 생략 프로젝트는 '영화 좋아하세요..?' 로 슬램덩크의 대사를 차용했다. 단순한 영화 소개가 아닌 나만 알고 있는 인생영화를 소개하는 페이지를 만들고자 한다. 주요한 메서드들은 기능 Method URL Request Response 게시글 목록 불러오기 GET /post-list - 게시글 목록 영화 포스터 가져오기(URL) GET 게시글 저장하기 POST /post 포스터, 이름, 설명, 추천 사유 - 게시글 불러오기 GET /post 게시글 ID 이정도가 있으며 팀원들이 역할을 나누어 먼저 html로 보여지는 페이지 만들기 ..
파이썬을 이용한 데이터 크롤링에 대해 알아보았다. 데이터 크롤링.. 말만 들었는데 이러한 느낌이었구나. 숙제 코드를 한번 살펴보자. import requests from bs4 import BeautifulSoup URL = "https://www.genie.co.kr/chart/top200?ditc=M&rtm=N&ymd=20230101" headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'} data = requests.get(URL, headers=headers) soup = BeautifulSoup(d..
엑셀보다 쉬운(...) sql 4주차를 마무리하고 그동안 배운 문법들을 정리해본다. 본인 엑셀도 잘 못하지만 sql은 훌륭한 튜터님 덕분에 조금이나마 알게된 것 같다. 1주차 : Select, Where 2주차 : Group by, Order by 3주차 : Join 4주차 : Subquery (Case, With 등) ----- 1주차 select의 경우 말 그대로 데이터를 선택해서 가져오는(불러오는) 명령어이다. select * from data 같은 형식으로 작성한다. *은 data테이블이 가지고 있는 모든 정보들을 보여준다. where의 경우 조건을 거는 것으로 만약 data 에서 number 값이 0인 것만 불러오고 싶다면 select * from data where number = 0 wher..
연달아 들어서 그런지 조금씩 익숙해진다 order by group by를 사용하여 정렬하는 것을 더 배웠는데 약간 엑셀의 느낌도 나고 다양한 지식들을 배워 흥미로웠다. 마지막에 나온 알리아스나 별칭은... 이제 헷갈리기 시작하려나보다 데이터베이스의 group by 에서 쿼리가 어떻게 진행되는지 이해가 되었다. 나름 표를 다시 짜준다라는 느낌으로 생각하면 되겠다. 아무튼 다음 시간도 기대가 된다. 무엇이 나올까?
처음 배우는 sql이었다. 데이터를 처리하고 불러오고 그런 것이었는데 우선 여타 다른 프로그래밍 언어와는 조금 다른 맛이 있었다. 정해진 데이터들을 불러오고 원하는대로 만질 수 있는 것이 재미있었다. 우선 명령어들이 헷갈렸고 selcet나 from, where등 문법에 맞추어 작성하는 것이 기억에 잘 남지 않았다. 몇번 더 만져보고 기억해야 할 듯 하다. 더 복잡한 것들은 어떻게 진행될까 기대가된다 ^^
1주차에 비해 어려운 것이 많았던 단계였다. 자바스크립트, 특히 JQuery에서 조금씩 막히기 시작했는데 새로운 JQuery가 들어오다보니 아직은 좀 허덕이는 중이다. data를 받아오는 것은 참 중요한 과정인 듯 한데, 이것을 잘 이해할 수 있도록 공부해야겠다. fetch , JQuery, 역시 뭔가 모르는 것을 배울때마다 지식이 늘어가는 느낌이다. ^_^