infra
-
🔥 Problem 👉 driver failed programming external connectivity on endpoint gallant_hawking 🧙 Solution 👉 If you are the port i not in use, try restarting docker. Please use the command below service docker restart good luck! If I was of any help to you, please buy me coffee 😿😢😥 If you have any questions, please leave them in the comments Buy me a coffee ▶ Youtube Sub 🧭 References [1] reference : htt..
[Docker issue] driver failed programming external connectivity on endpoint gallant_hawking🔥 Problem 👉 driver failed programming external connectivity on endpoint gallant_hawking 🧙 Solution 👉 If you are the port i not in use, try restarting docker. Please use the command below service docker restart good luck! If I was of any help to you, please buy me coffee 😿😢😥 If you have any questions, please leave them in the comments Buy me a coffee ▶ Youtube Sub 🧭 References [1] reference : htt..
2019.06.06 -
1. 내용 User-agent: 검색 로봇의 이름Disallow: 제한할 디렉토리Crawl-delay: 다음 방문까지의 딜레이(초) 2. 사용하는 방법 2.1 모든 검색 로봇 접근 차단User-agent: *Disallow: / 2.2 모든 검색 로봇, /index 디렉토리 접근을 제한User-agent: *Disallow: /index 2.3 네이버 검색 로봇에게만 접근을 허용하고, 다른 검색 로봇들에게는 모든 디렉토리를 제한할 경우User-agent: naverbotDisallow: User-agent: *Disallow: /(접근을 차단하고 싶을 때는 /를 입력 하고, 허용하고 싶을 때는 공백으로 두면 됩니다.) 2.4 구글 이미지의 로봇에게 JPG 파일을 제한할 경우User-agent: Googl..
[리눅스] robots.txt 를 쉽게 작성해보자!1. 내용 User-agent: 검색 로봇의 이름Disallow: 제한할 디렉토리Crawl-delay: 다음 방문까지의 딜레이(초) 2. 사용하는 방법 2.1 모든 검색 로봇 접근 차단User-agent: *Disallow: / 2.2 모든 검색 로봇, /index 디렉토리 접근을 제한User-agent: *Disallow: /index 2.3 네이버 검색 로봇에게만 접근을 허용하고, 다른 검색 로봇들에게는 모든 디렉토리를 제한할 경우User-agent: naverbotDisallow: User-agent: *Disallow: /(접근을 차단하고 싶을 때는 /를 입력 하고, 허용하고 싶을 때는 공백으로 두면 됩니다.) 2.4 구글 이미지의 로봇에게 JPG 파일을 제한할 경우User-agent: Googl..
2017.08.18 -
robots.txt란?검색엔진의 접근을 제어 하는 참조 명령을 적어 두는 파일입니다.검색엔진 크롤러의 접근을 제한하는 디렉토리 및 파일을 지정하는 것입니다. 웹 사이트, 운영을 위한 robots.txt 위치 파일의 위치는 도메인의 루트(root) 입니다. 즉, 최상위 폴더입니다. 예를 들면, 아래와 같습니다. 윈도우의 경우C:\apache-tomcat-7.0.70\webapps\ROOT/html/robots.txt 리눅스의 경우/usr/local/tomcat/webapps/ROOT/html/robots.txt 잘 적용되었는지 확인하는 방법홈페이지 도메인에 /를 하고 robots.txt를 입력해봅니다.ex) www.Test.com/robots.txt 잘못된 점 혹은 궁금한 점이 있다면 댓글 남겨주세요. 감..
[리눅스] robots.txt의 뜻과 디렉토리 위치robots.txt란?검색엔진의 접근을 제어 하는 참조 명령을 적어 두는 파일입니다.검색엔진 크롤러의 접근을 제한하는 디렉토리 및 파일을 지정하는 것입니다. 웹 사이트, 운영을 위한 robots.txt 위치 파일의 위치는 도메인의 루트(root) 입니다. 즉, 최상위 폴더입니다. 예를 들면, 아래와 같습니다. 윈도우의 경우C:\apache-tomcat-7.0.70\webapps\ROOT/html/robots.txt 리눅스의 경우/usr/local/tomcat/webapps/ROOT/html/robots.txt 잘 적용되었는지 확인하는 방법홈페이지 도메인에 /를 하고 robots.txt를 입력해봅니다.ex) www.Test.com/robots.txt 잘못된 점 혹은 궁금한 점이 있다면 댓글 남겨주세요. 감..
2017.08.17 -
어떤 리눅스를 사용하고 있는지 확인하는 방법!명령어: grep . /etc/*-release 혹은명령어: cat /etc/issue잘못된 점 혹은 궁금한 점이 있다면 댓글 남겨주세요. 감사합니다!
[Linux] 리눅스 OS 종류 확인하는 방법어떤 리눅스를 사용하고 있는지 확인하는 방법!명령어: grep . /etc/*-release 혹은명령어: cat /etc/issue잘못된 점 혹은 궁금한 점이 있다면 댓글 남겨주세요. 감사합니다!
2017.08.16 -
명령어 입력> killall svnserve> service svnserve start 해결이 안되거나, 질문 사항이 있다면 댓글 남겨주세요 ^ ^ 감사합니다.
[svnserve] 서버소켓을 바인드할 수 없습니다. 주소가 이미 사용 중 입니다.명령어 입력> killall svnserve> service svnserve start 해결이 안되거나, 질문 사항이 있다면 댓글 남겨주세요 ^ ^ 감사합니다.
2017.06.14 -
리눅스 MySQL 자동 실행 설정 방법 chkconfig로 서비스 설정하기 chkconfig는 쉽게 서비스를 등록하거나 삭제, 혹은 특정 런레벨에서 서비스를 실행시키는 설정을 가능 명령어 1. chkconfig --add mysqld 2. chkconfig --level 2345 mysqld on 3. chmod 755 /etc/rc.d/init.d/mysqld4. chkconfig --list | grep mysqld 감사합니다.
리눅스 MySQL 자동 실행 설정 방법리눅스 MySQL 자동 실행 설정 방법 chkconfig로 서비스 설정하기 chkconfig는 쉽게 서비스를 등록하거나 삭제, 혹은 특정 런레벨에서 서비스를 실행시키는 설정을 가능 명령어 1. chkconfig --add mysqld 2. chkconfig --level 2345 mysqld on 3. chmod 755 /etc/rc.d/init.d/mysqld4. chkconfig --list | grep mysqld 감사합니다.
2017.06.14