목록CS 학습/WEB (5)
현인
robots.txt 파일은 검색엔진 크롤러가 사이트에서 접근할 수 있는 URL을 지정하는 파일이다. 주로 크롤러 요청으로 인해 사이트에 과부하가 발생하는 것을 방지하기 위해 사용한다. 다만, 이 파일은 웹페이지가 Google 검색결과에 표시되지 않도록 차단하는 수단으로 사용해서는 안 된다. 검색결과에서 페이지를 숨기려면 noindex 태그를 사용하거나 비밀번호로 보호해야 한다.robots.txt 파일의 주요 용도크롤러 트래픽 관리크롤러가 특정 URL이나 리소스에 접근하지 못하도록 제한한다.리소스 크롤링 차단단, 이러한 리소스가 페이지 이해에 중요한 역할을 한다면 차단해서는 안 된다.중요하지 않은 이미지, 스크립트, 스타일 파일 등을 차단하여 크롤러가 불필요한 리소스를 크롤링하지 않도록 한다.미디어 파일 ..
웹 브라우저웹 브라우저란 인터넷을 통해 웹 페이지를 탐색하고 보는 데 사용되는 소프트웨어다. 구글 크롬(Google Chrome), 모질라 파이어폭스(Mozilla Firefox), 애플 사파리(Safari), 마이크로소프트 엣지(Microsoft Edge) 등 많은 브라우저들이 등장했고, 이러한 브라우저들은 웹 페이지 표시 및 인터넷 사용을 보다 편리하게 해주는 다양한 기능들을 제공해준다.모든 브라우저의 핵심 기능은 사용자에게 웹 페이지를 보다 빠르고 정확하게 보여주는 일이다. 이번 글에서는 어떤 동작 원리를 통해 브라우저가 사용자에게 웹 페이지를 보여주고 있는지 알아보려 한다.보다 나은 이해를 돕기 위해 구체적인 예시를 하나 들어보겠다.www.naver.com을 브라우저에 입력했을 때 어떤 일이 일어..
인터넷은 컴퓨터들이 서로 통신 가능한 거대한 네트워크 인프라이다. 인터넷은 기술 인프라이며 웹은 그 위에서 동작하는 하나의 서비스일 뿐이다.인터넷은 어떻게 구성되어 있는가?두 개의 컴퓨터가 통신이 필요하다면, 우리는 두 컴퓨터를 물리적인 방법(보통 이더넷 케이블) 혹은 무선(Wifi나 Bluetooth 시스템)으로 연결해야 한다. (이 글의 예제들은 유선 케이블이지만, 무선 네트워크도 동일한 방식이다.)하지만 이 세상은 두 대의 컴퓨터만 존재하진 않는다. 10대의 컴퓨터를 서로서로 모두 연결한다고 가정해보면, 컴퓨터당 9개의 플러그가 달려야 하고, 총 45개의 케이블이 필요해진다.이 문제를 해결하기 위해 각 컴퓨터는 라우터라고하는 특수한 소형 컴퓨터에 연결된다. 라우터는 단 하나의 작업만을 처리한다. A..
웹 개발을 하다보면 REST라는 용어를 자주 접하게 될 것이다. REST라는 개념을 이전에 공부한 적이 있었지만 일을 하다보니 개념에 대해 확실히 알아두고 싶어 글로 정리해보려 한다. 이 글에선 REST 란 무엇이고 어떻게 등장하였으며 더 나아가 RESTful, REST API 까지 알아볼 것이다. REST REST는 웹의 창시자(HTTP) 중의 한 사람인 Roy Fielding의 2000년 논문에 의해서 소개되었다. 현재의 아키텍쳐가 웹의 본래 설계의 우수성을 많이 사용하지 못하고 있다고 판단했기 때문에, 웹의 장점을 최대한 활용할 수 있는 네트워크 기반의 아키텍쳐를 소개했는데 그것이 바로 REST(Representational safe transfer)이다. REST 구성 자원 (Resouce) - ..
들어가며 프론트엔드 개발에 관심이 있는 사람들이라면 한 번쯤 들어봤을 법한 단어들입니다. 저는 프론트엔드 직무 면접을 보면서 CSR 방식과 SSR 방식의 차이를 설명해달라는 질문을 종종 받았습니다. 개인적으로 궁금해서 공부했던 내용이지만 실제 면접에서도 물어보는 것을 보면 프론트엔드 개발자라면 짚고 넘어갈 필요가 있는 지식이라고 생각합니다. 지금부터 CSR과 SSR이 무엇인지 간단히 알아보고, 두 방식에는 어떤 차이점이 있는지 알아보겠습니다. CSR과 SSR CSR, SSR이라는 용어는 렌더링 방식을 뜻하는 용어입니다. 렌더링이란 서버로부터 HTML 파일을 받아 브라우저에 뿌려주는 과정입니다. 감이 잘 안오시죠? 우리의 경험을 한 번 되짚어 보겠습니다. 웹 사이트를 접속했는데 어떤 페이지는 어느정도 틀이..