![](http://i1.daumcdn.net/thumb/C148x148.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/bKto6q/btqDebJy8RE/VGnfFtnzJaSWkhnNHQEREK/img.png)
HTML/CSS 티스토리 블로그 모바일 최적화(1) 1) body 본문 글꼴 설정 @import url('https://fonts.googleapis.com/css2?family=Nanum+Gothic&display=swap'); body { -webkit-text-size-adjust: 100%; font-weight: 400; font-family: 'Nanum Gothic', 'Noto Sans KR', sans-serif; /* 나눔고딕 */ font-size: 1em; line-height: 1.25; color: #0F0F0F; /* 가독성 검정 */ } 폰트는 나눔고딕과 애플 산돌 고딕을 비교해봤다. 같은 Bold 상황에서 나눔고딕이 글자 간격이 더 넓고 글자 끝이 선명하다. 따라서 나눔고딕..
![](http://i1.daumcdn.net/thumb/C148x148.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/dVoMcc/btqCENXZvYw/A7ZLUoTqCyU9cfqulc2zLK/img.png)
블로그 스킨을 편집하다가 별생각없이 html을 조금 손봤다. 이렇게 복잡한 html, css에도 아는대로 적용하니까 바뀌는 걸 보고 신기했다. 1) 제목 폰트 바꾸기 우선 f12로 제목 부분의 html 구조가 무엇인지 확인한다. Error.Record(reason as text, optional message as nullable text, optional detail as any) as record 편집기에서 확인해보니 이러한 구조로 이뤄졌다. 텍스트가 들어가는 span에는 title_text라는 css가 붙어있었다. header > inner_header > title_text 이기에 css를 찾아봤다. 박스 안을 수정하면 글씨체가 바뀌지 않을까하고 구글에 span 폰트 수정이라고 검색해봤다. spa..
![](http://i1.daumcdn.net/thumb/C148x148.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/w882J/btqztth9096/9DWALpPJsnsB4EG6mml4MK/img.png)
이름이 매우 거창하지만 사실 들여다보면 아무것도 없는 분투기 시작하겠읍니다. 01. TextRank가 뭐야 저번 시간에 WIKI에서 마드리드 거리를 구역별로 크롤링해서 본문 텍스트를 모조리 SCRAPY로 따왔다. 내가 원하는 것은 크롤링 결과 중 어떤 내용이 번역할 만한 재밌는 내용을 가지고 있을까를 보려는 것이다. 내가 230개의 거리 위키 문서를 모두 읽을 순 없으니 핵심 키워드를 뽑으면 재밌어보이는 것들을 구분할 수 있지 않겠나. 자 그러면, 어떻게 해야 키워드를 뽑을 수 있을까. 구글링한다. 한글로 검색하니 konlpy로 명사 추출하여 빈도 계산하는 코드가 뜬다. 내가 원하는 건 텍스트 요약이지 최다 빈도를 뽑는 건 아니다. 최다 빈도는 엑셀로도 충분히 가능하지. 영어로 검색하니 TextRank라..
![](http://i1.daumcdn.net/thumb/C148x148.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/drkOrY/btqzpVYxiGC/K8fd6sKqL9KboWSXz43BnK/img.png)
scrapy 튜토리얼을 끝냈으니 wiki 크롤러를 한 번 제작해보려했다. 마드리드 거리를 구역 카테고리로 나눈 위키 페이지를 목표로 했다. 각 구역의 모든 거리의 이름과 내용을 모두 긁어오려 한다. class WikicrawlerSpider(scrapy.Spider): name = 'wikicrawler' def start_requests(self): yield scrapy.Request(url='https://es.wikipedia.org/wiki/Categor%C3%ADa:Calles_del_distrito_Centro', callback=self.parse_barrio) def parse_barrio(self, response): barrio_links1 = response.css('div.mw-c..
![](http://i1.daumcdn.net/thumb/C148x148.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/ejM3mT/btqzojZAYOR/d5xKkOxaRYby411oggV5uK/img.png)
잔재미코딩님의 강의를 보며 scrapy 튜토리얼을 배워나가고 있다. 기본적인 흐름은 다음과 같다. 1. scrapy startproject [projectname] 으로 새 프로젝트 폴더를 생성한다. 2. scrapy genspider [filename] [domain] 으로 사이트 주소를 start url로 가지는 파일을 생성한다. 2-1. 크롤링하려는 사이트를 scrapy shell 을 통해 크롤러 코드 제작 전에 미리 실험해 볼 수 있다. # -*- coding: utf-8 -*- import scrapy class HelloSpider(scrapy.Spider): name = 'hello' allowed_domains = ['www.naver.com'] start_urls = ['http://ww..
파이썬으로 크롤링 한 데이터를 pymysql로 MySQL DB에 입력하기 코드를 설명하기 위한 것이 아니라 흐름을 정리하기 위해 쓰는 포스트 *잔재미코딩님의 인프런 강의 중 "SQL/DB(MySQL) 기본부터 파이썬/데이터분석 활용까지!" 의 강좌 내용을 정리한 것입니다. ** 잔재미코딩님의 페이지 : https://www.fun-coding.org/ 1. 스키마(Schema)정의 어던 데이터를 어떻게 저장할지 (what/how) 설계해야 한다 - gmarket Best 상품 목록을 DB화 하는 것이 목적 - 랭킹 정보를 담는 ranking 테이블과 상품 정보를 담는 items 테이블 두 개로 나누고 상품코드를 포린키(FK)로 지정하여 연결하는 것으로 설계 - 포린키의 reference를 받는 items..
- Total
- Today
- Yesterday
- nltk
- 유튜버
- 유럽
- 글쓰기
- 파이썬
- 리뷰
- 마드리드
- 항공
- 분석
- NLP
- 오류
- scrapy
- 유튜브
- DATABASE
- 일기
- flask
- 이슈
- 코로나
- BeautifulSoup
- Selenium
- 블로그
- python
- Crawling
- 저널
- css
- coding
- HTML
- error
- 런업
- 스페인
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |