01. 카타르 항공의 입장 및 정책 1. 카타르 항공이 운항하는 모든 목적지의 승객은 여전히 최종 목적지의 입국 제한에 준수하여 하마드 국제 공항을 경유 하여 여행할 수 있다. *카타르 정부의 입국 제한 성명: 카타르 정부의 지시에 따라 즉시 효력을 발휘하여 카타르 주에 입국하는 것은 14일 동안 검역소에 들어가야하는 카타르 국민에게만 허용된다. 다른 국가의 여권 소지자는 더 이상 3월 16일부터 입국이 허가되지 않으며, 그 이후에는 제한사항을 검토한다. 카타르 항공의 글로벌 네트워크는 최종 목적지의 입국 제한에 따라 정상적으로 환승 승객을 위해 계속 운행한다. 화물 운영은 영향을받지 않습니다. 2. 그러나 Covid-19 (코로나 바이러스)로 인해 발생하는 운영상의 문제로 인해 일부 서비스가 변경되..
01. 불과 2주 전까지만해도 괜찮았던 유럽의 분위기가 험악해지다. 이번 겨울을 스페인 마드리드에 지내면서 코로나 바이러스로 인해 많은 일을 겪고있다. 3월까지 예정되어 있었던 투어 예약을 취소하게 되고 이탈리아에 이어 스페인까지 이동제한 명령이 걸리면서 며칠째 집에서 발이 묶여있다. 국가 비상상태를 선포하면서 국경봉쇄가 이뤄지고 유럽에 있는 많은 한국인들이 두려움에 떨고 있다. 여행객은 서둘러 한국으로 떠나지만 이곳이 삶의 터전인 교민에겐 매우 힘든 결정일 수밖에 없다. 이탈리아를 선두로 스페인, 프랑스, 독일 등 여러 유럽국가가 국경 봉쇄를 진행하고 있다. 단순히 코로나바이러스 감염에 대한 두려움뿐만 아니라 한국으로 돌아가지 못하고 유럽에 갇히는 최악의 상황을 모면하고자 모두들 바삐 한국행 비행기에 ..
블로그 스킨을 편집하다가 별생각없이 html을 조금 손봤다. 이렇게 복잡한 html, css에도 아는대로 적용하니까 바뀌는 걸 보고 신기했다. 1) 제목 폰트 바꾸기 우선 f12로 제목 부분의 html 구조가 무엇인지 확인한다. Error.Record(reason as text, optional message as nullable text, optional detail as any) as record 편집기에서 확인해보니 이러한 구조로 이뤄졌다. 텍스트가 들어가는 span에는 title_text라는 css가 붙어있었다. header > inner_header > title_text 이기에 css를 찾아봤다. 박스 안을 수정하면 글씨체가 바뀌지 않을까하고 구글에 span 폰트 수정이라고 검색해봤다. spa..
이름이 매우 거창하지만 사실 들여다보면 아무것도 없는 분투기 시작하겠읍니다. 01. TextRank가 뭐야 저번 시간에 WIKI에서 마드리드 거리를 구역별로 크롤링해서 본문 텍스트를 모조리 SCRAPY로 따왔다. 내가 원하는 것은 크롤링 결과 중 어떤 내용이 번역할 만한 재밌는 내용을 가지고 있을까를 보려는 것이다. 내가 230개의 거리 위키 문서를 모두 읽을 순 없으니 핵심 키워드를 뽑으면 재밌어보이는 것들을 구분할 수 있지 않겠나. 자 그러면, 어떻게 해야 키워드를 뽑을 수 있을까. 구글링한다. 한글로 검색하니 konlpy로 명사 추출하여 빈도 계산하는 코드가 뜬다. 내가 원하는 건 텍스트 요약이지 최다 빈도를 뽑는 건 아니다. 최다 빈도는 엑셀로도 충분히 가능하지. 영어로 검색하니 TextRank라..
scrapy 튜토리얼을 끝냈으니 wiki 크롤러를 한 번 제작해보려했다. 마드리드 거리를 구역 카테고리로 나눈 위키 페이지를 목표로 했다. 각 구역의 모든 거리의 이름과 내용을 모두 긁어오려 한다. class WikicrawlerSpider(scrapy.Spider): name = 'wikicrawler' def start_requests(self): yield scrapy.Request(url='https://es.wikipedia.org/wiki/Categor%C3%ADa:Calles_del_distrito_Centro', callback=self.parse_barrio) def parse_barrio(self, response): barrio_links1 = response.css('div.mw-c..
잔재미코딩님의 강의를 보며 scrapy 튜토리얼을 배워나가고 있다. 기본적인 흐름은 다음과 같다. 1. scrapy startproject [projectname] 으로 새 프로젝트 폴더를 생성한다. 2. scrapy genspider [filename] [domain] 으로 사이트 주소를 start url로 가지는 파일을 생성한다. 2-1. 크롤링하려는 사이트를 scrapy shell 을 통해 크롤러 코드 제작 전에 미리 실험해 볼 수 있다. # -*- coding: utf-8 -*- import scrapy class HelloSpider(scrapy.Spider): name = 'hello' allowed_domains = ['www.naver.com'] start_urls = ['http://ww..
- Total
- Today
- Yesterday
- 항공
- BeautifulSoup
- 유튜버
- 블로그
- DATABASE
- HTML
- 런업
- nltk
- 코로나
- coding
- 저널
- 일기
- 분석
- 마드리드
- error
- flask
- Selenium
- 리뷰
- 유럽
- 오류
- 이슈
- Crawling
- 스페인
- scrapy
- 글쓰기
- 파이썬
- 유튜브
- python
- css
- NLP
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |