개요

  • VS code에서 오라클을 연동한다.

VS Code확장(Extension)

  • VS Code 실행 후 사이드 바(side bar)에서 확장(Extension)을 통한 Oracle Developer Tools for VS Code를 설치한다.
    png
  • 설치 중간에 아래와 같은 문구가 나오면 해당 파일을 설치해야 한다.
    png

필수 설치 파일

테스트

  • 설치가 완료가 되면 Extension 메뉴 밑에 DB 메뉴가 활성화 되는 것을 확인 할 수 있다.
    png


  • 여기에서 VS Code 재 시작을 하도록 한다.

  • 빨간색으로 밑줄 친 플러스 모양을 클릭하면 New Connection 버튼이 있는데 클릭하면 새로운 Connection이 생성된다.

    • 단, 여기에서 새로운 Connection은 기존에 이미 만들어진 Connection을 의미한다.

    • 따라서, 기존 SQL Developer에서 생성했던 것과 동일하게 작성을 해야한다.

      png


  • Database host name, Port number, Serviece name, User name, Password, Connection name을 확인 후 작성한다.
    png
  • 완료 되면, 아래 그림과 같이 DB가 활성화 된 것을 확인 할 수 있다.
    png
    png
  • 마우스 우클릭을 하면, 새로운 쿼리 파일을 작성할 수 있다.
    png
  • 파일을 작성하면 아래와 같이 Ctrl + E를 눌러 SQL을 실행한다.
    png
  • 정상적으로 실행이 되면 아래와 같은 결괏값이 나온다.
    png

Comment and share


개요

  • 작성한 SQL 파일 및 코드들을 Jupyter Notebook에서 실행 하기 위한 설정하는 과정을 설명한다.
  • 필자는 평소 Jupyter Notebook을 VSCode로 실행하여 VSCode를 통해 설명을 하는데 Jupyter Lab 또는 Jupyter Notebook을 직접 실행하여 설정해도 무방하다.

Step 1. 라이브러리 설치

  • 공통적으로 다음 라이브러리를 설치한다.
1
pip install ipython-sql

png


  • 다음으로 접속하려는 DB에 맞춰서 라이브러리를 설치한다.

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    # sql server
    pip install pyodbc

    # PostgreSQL
    pip install pyscopg2

    # MySQL
    pip install PyMySQL

    # Oracle
    pip install cx_Oracle

    png


Step 2. Jupyter Notebook SQL 연결

  • 필자는 VSCode를 사용하여 Jupyter Notebook을 사용하여 VSCode를 사용하여 작성하였다.
  • VScode를 실행하여 아래 사진에서 밑줄 친 새 파일을 클릭하면 Jupyter Notebook(.ipynb) 형식으로 파일을 생성한다.
    png
  • 생성한 파일에 매직 명령어로 아래와 같은 코드를 입력한 뒤 실행하면 pakage 설치 안내창이 나오는데 설치한다.
    1
    %load_ext sql
    png

모듈 에러(ModuleNotFoundError: No module named ‘sql’)

  • 이 에러는 sql이라는 이름의 모듈을 설치가 안되었을때 나오는 에러인데 라이브러리를 설치를 해줬는데도 불구하고 ModuleNotFoundError: No module named 'sql' 라는 에러가 나온다. 그럴 땐 내가 설치를 한 라이브러리가 어느 경로에 저장되었는지 확인해야 한다. (필자는 설치를 할 때 나온 메세지를 통해 확인함.)
    1
    2
    import sys
    sys.executable -- 현재 파일 파이썬 경로 확인
  • 필자는 VSCode로 생성한 파일의 파이썬 경로와 다른 경로에 설치가 되어 위와 같은 오류가 생성되었던 것이다. 그렇다고 환경 변수를 새로 설정하기에는 너무 복잡하니, 파이썬 파일을 새로 만들어 설치된 경로와 맞춰주겠다.
  • 아래 사진 우측 상단에 밑줄 친 상자 클릭을 한다.
    png
  • 아래 사진에서 필자의 컴퓨터에서 파이썬 라이브러리가 저장된 경로는 두번째 항목이기 때문에 클릭을 하면 설정이 바뀐다.
    png
    png
  • Step 2 방법으로 한번 더 실행하면 아래 사진 과 같이 오류 없이 정상적으로 실행된다.
    png

DB 접속

  • 접속하려는 DB에 맞는 코드를 입력 후 실행

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    # SQL Server
    %sql mssql+pyodbc://user_name:password@host:port_number/db

    # PostgreSQL
    %sql postgresql://user_name:password@host:port_number/db

    # MySQL
    %sql mysql://user_name:password@host:port_number/db

    # Oracle
    %sql oracle://user_name:password@127.0.0.1:port_number/db
    • user_name, password, port_number,db 등을 확인하려면 Oracle SQL Developer을 실행하여 해당 DB 우클릭 후 속성에 들어가면 상세히 적혀 있다.
      png
      png
  • 각자 DB에 맞게 작성 하면 아래 사진과 같이 정상적으로 DB 연결이 되었다고 나온다.
    png


  • 코드 작성이 잘되는지 테스트 해본다.

    1
    2
    3
    4
    5
    # sql 실행문 (%%sql)을 붙이고 실행
    %%sql

    SELECT *
    FROM employees

    png

Comment and share


개요

  • windows WSL2에서 airflow를 설치 및 설정에 대해서 설명한다.

Step 1. Install pip on WSL

  • 우선 airflow를 설치하기 위해 pip를 설치한다
1
2
$ sudo apt install python3-pip
[sudo] password for username:

Step 2. Install virtualenv package

  • 가상 환경 라이브러리인 virtualenv 를 설치한다.

    1
    $ sudo pip install virtualenv

Step 3. Create a virtual environment

  • C드라이브에 airflow-test 폴더를 생성한 뒤 해당 디렉터리로 이동한다.

  • 가상 환경을 생성한 후, 가상 환경에 접속한다.

    1
    2
    3
    $ virtualenv venv # 가상 환경 생성
    $ source venv/bin/activate # 가상 환경 접속

  • .bashrc 파일을 수정한다

    1
    $ vi ~/.bashrc
  • 파일을 연 후, 다음과 같은 코드를 추가한다.

    1
    export AIRFLOW_HOME=/mnt/c/airflow-test
    • 리눅스 환경에서 파일을 읽고 쓰는 모드 설정 및 입력 모드에서의 단축키는 생소 할수 있으므로 아래 사이트 참고 하여 코드를 수정한다.
  • 수정 된 코드를 업데이트 한 뒤, 코드가 제대로 반영되었는지 확인한다.

    1
    2
    $ source ~/.bashrc # 업데이트
    $ echo $AIRFLOW_HOME # 코드 정상 반영 확인

Step 4. Apache Airflow 설치

  • PostgreSQL, Slack, Celery 패키지를 동시에 설치한다.

    1
    $ pip3 install 'apache-airflow[postgres, slack, celery]'
  • 에어플로우를 실행 하기 위해 DB 초기화를 해줘야 한다.

    1
    $ airflow db init # DB 초기화
  • 실제로 잘 구현 되었는지 확인을 하기 위해 webserver를 실행한다.

    1
    $ airflow webserver -p 8080
    • webserver는 airflow.cfg파일의 endpoint_url 주소를 확인 후 설정한다.(필자는 8080으로 되어 있어서 위와 같은 코드로 실행함)

    png


  • 다음으로 일정 주기로 데이터 흐름이 실행되게 하려면 Scheduler가 필요하다.

    1
    airflow scheduler
    • 위와 같이 airflow webserver -p 8080airflow scheduler 를 실행하려면 2개의 wsl 창이 필요하다.
  • 생성한 http://localhost:8080/login/에 접속하면 아래와 같은 화면이 나타난다.

    png


  • cntrl+c로 작업을 해제하고 이제 로그인을 하기 위해 회원 가입을 하도록 한다.

    1
    2
    # users create
    $ airflow users create --username airflow --password airflow --firstname winters evan --lastname airflow --role Admin --email your_email@some.com
    • username(ID)와 password는 airflow로 한뒤 나머지 lastname, email은 사용자에 맞게 수정한다.
  • 다시 webserver와 Schedule를 실행한 뒤 로그인을 하면 정상적으로 다양한 DAGs 파일이 나타난 것을 확인할 수 있다.

    png

Default 예제 제거하기

  • load_examples를 없애고 내가 생성 및 수정한 DAGs들만 보이고 싶다면 airflow.cfg 파일을 열고, load_examples = True 로 되어 있는 것을 load_examples = False 로 변경한다.

    png


  • 그 후에, 다시 터미널로 돌아와서 airflow db reset 실행한다.

    png


  • webserver 를 실행하여 확인

    png

Comment and share

개요

  • Windows 11 에서 NIFI를 설치 및 설정을 하는 것을 설명한다.

Step 01. Nifi 다운로드

Step 02. Java 환경 설정

  • 먼저 Nifi를 사용하려면 Java 설치를 해야 하는데 설치 내용은 아래 블로그를 참조한다.

Step 03. run-nifi 배치 파일 실행

  • run-nifi 파일을 관리자 권한으로 실행한다. (경로 c/nifi-1.16.0/bin/run-nifi.bat)

    png


  • 아래와 같은 메시지가 출력이 되면 정상적으로 세팅한 것이다.

    png


Step 04. Web UI 확인

  • Web UI를 확인해본다. (약 1분 지난 뒤)

  • 간혹 안 나오는 경우가 있다. 그럴 경우에는 새로운 CMD 파일을 연 후, Process ID를 서로 비교 대조해본다.

    1
    $ netstat -ano | find "8443"

    png


Step 05. 로그인 ID 찾기 및 접속

  • 우선 별도로 설정을 하지 않았다면, 자동으로 생성이 된다.

  • logs/nifi-app 로그파일에서 메모장으로 연 후, 검색을 한다. (Ctrl + F, Username)

    png


  • 로그인을 하면, 아래와 같은 화면으로 접속이 되는 것을 확인할 수 있다.

    png

Comment and share

개요

  • WSL2 프로그램을 사용하여 가상 환경에서 Apache Nifi 설치 및 설정하는 과정을 설명한다.

Step 01. Java 설치 및 설정

  • wls2에서 Java를 설치 한다.
1
2
$ sudo apt-get update && sudo apt-get upgrade
$ sudo apt install openjdk-11-jre-headless
  • 환경 변수 설정을 한다.
    1
    2
    $ vi ~/.bash_profile
    export JAVA_HOME=/usr/lib/jvm/java-11-openjdk-amd64
    png
    • WSL(Windows Subsystem for Linux)는 리눅스 환경 이기 때문에 일반 terminal 창과는 다른 명령어를 사용한다. 명령어는 아래 사이트를 참고하여 작성하길 바란다.

Step 02. Nifi 설치 및 설정

  • curl을 이용하여 Nifi를 현재 경로에 받는다.

    1
    $ sudo wget https://downloads.apache.org/nifi/1.16.0/nifi-1.16.0-bin.tar.gz
  • .tar.gz 파일의 압축을 푼다.

    1
    $ sudo tar xvzf nifi-1.16.0-bin.tar.gz
  • nifi-1.16.0/bin 폴더로 경로를 이동한다

    1
    $ cd nifi-1.16.0/bin

    png


    • 필자의 경로는 root/nifi-1.16.0/bin 이다.
  • ls 를 입력하여 현재 경로에 nifi-env.sh 파일이 있는지 확인

    png


  • 환경 변수를 설정 한다.

    1
    2
    $ sudo vi nifi-env.sh
    export JAVA_HOME="/usr/lib/jvm/java-11-openjdk-amd64"

    png


Step 03. Nifi 실행

  • nifi-env.sh 파일을 실행 한다.

    1
    $ sudo ./nifi.sh start

    png


  • nifi-1.16.0/conf에 있는 nifi.properties를 열어 webserver 주소를 확인한다.

    1
    2
    vi nifi.properties
    # 경로 /nifi-1.16.0/conf

    png


    png


  • Nifi 화면에 접속한다.

  • Username과 Password를 생성한다.(사용자에 맞게 생성 가능)

    1
    2
    3
    $ sudo ./bin/nifi.sh set-single-user-credentials human 1234567890123
    # username: human
    # password :1234567890123
  • 재 실행하여 로그인을 해본다.

    png


Comment and share


사전준비

  • Python3 가 설치가 되어야 가능하기 때문에 설치가 되어있지 않다면 아나콘다(Anaconda)에 접속하여 설치 바랍니다.

다운로드 전 필수 확인사항

  • 스파크 설치 전에는 반드시 체크해야 하는 사항이 있다. (System Compatibility)
  • 2022년 1월 기준은 아래와 같다.

Get Spark from the downloads page of the project website. This documentation is for Spark version 3.2.0. Spark uses Hadoop’s client libraries for HDFS and YARN. Downloads are pre-packaged for a handful of popular Hadoop versions. Users can also download a “Hadoop free” binary and run Spark with any Hadoop version by augmenting Spark’s classpath. Scala and Java users can include Spark in their projects using its Maven coordinates and Python users can install Spark from PyPI.

If you’d like to build Spark from source, visit Building Spark.

Spark runs on both Windows and UNIX-like systems (e.g. Linux, Mac OS), and it should run on any platform that runs a supported version of Java. This should include JVMs on x86_64 and ARM64. It’s easy to run locally on one machine — all you need is to have java installed on your system PATH, or the JAVA_HOME environment variable pointing to a Java installation.

Spark runs on Java 8/11, Scala 2.12, Python 3.6+ and R 3.5+. Python 3.6 support is deprecated as of Spark 3.2.0. Java 8 prior to version 8u201 support is deprecated as of Spark 3.2.0. For the Scala API, Spark 3.2.0 uses Scala 2.12. You will need to use a compatible Scala version (2.12.x).

For Python 3.9, Arrow optimization and pandas UDFs might not work due to the supported Python versions in Apache Arrow. Please refer to the latest Python Compatibility page. For Java 11, -Dio.netty.tryReflectionSetAccessible=true is required additionally for Apache Arrow library. This prevents java.lang.UnsupportedOperationException: sun.misc.Unsafe or java.nio.DirectByteBuffer.(long, int) not available when Apache Arrow uses Netty internally.

자바 설치

Step 01. 설치

  • 다운로드 파일을 관리자로 실행한다. 계속 Next 버튼 클릭 후, 아래 파일에서 경로를 수정한다. (이 때, Program Files 공백이 있는데, 이러한 공백은 환경 설치 시 문제가 될 수 있다.)

    png


  • Foder name(경로)를 아래와 같이 변경 후 OK 클릭을 하면 설치가 완료된다.

    png


  • 이번에는 자바 런타임 환경의 폴더도 동일하게 변경해준다. (변경 클릭 후 수정)

    • C드라이브 경로에 jre 폴더를 생성하고 저장한다.

    png


Spark 설치

(1) Spark file 설치

(2) WinRAR 프로그램 다운로드

  • .tgz 파일 압축을 풀기 위해 WinRAR 을 설치한다.
    • WinRAR: https://www.rarlab.com/download.htm

    • 링크에 들어가면 아래 화면이 보이는데 각 컴퓨터 환경에 맞게 설치 바랍니다.

      png


    • 다운로드가 완료 되면 위 과정 (1)에서 설치했던 spark-3.2.0-bin-hadoop3.2.tgz 파일 압축 풀기(Extract) 실행

(3) spark 폴더 생성 및 파일 이동

  • C드라이브 안에 spark 라는 새로운 폴더 생성 후 앞 서 압축을 풀었던 파일 spark-3.2.0-bin-hadoop3.2 폴더 내 모든 파일을 생성한 spark 폴더로 옮긴다.

    png


(4) log4j.properties 파일 수정

  • conf - [log4j.properties](http://log4j.properties) 파일을 연다.

    png


  • 해당 파일을 메모장으로 연 후(필자는 vscode로 연결), 아래에서 빨간줄을 친 log4j.rootCategory=INFO 에서 INFOERROR 로 변경한다.

    • 작업 실행 시, 출력하는 모든 logs 값들을 없앨 수 있다.

      png


winutils 설치

  • 이번에는 스파크가 윈도우 로컬 컴퓨터가 Hadoop을 착각하게 만들 프로그램이 필요하다.

  • C드라이브에서 winutils란 이름의 폴더를 생성한 후, 앞서 받은 hadoop-3.2.2 파일의 bin 폴더를 옮긴다.

    png


  • 이 파일이 Spark 실행 시, 오류 없이 실행될 수 있도록 CMD 프로그램에서 파일 사용 권한을 얻도록 한다.

    • CMD 프로그램을 관리자 권한으로 실행 후 아래 코드 입력
    1
    2
    C:\Windows\system32>cd c:\winutils\bin # 경로 변경
    c:\winutils\bin> winutils.exe chmod 777 \tmp\hive
    • 만약, ChangeFileModeByMask error (3) 에러 발생 시, C드라이브에 tmp\hive 폴더를 차례대로 생성을 한다.


환경변수 설정

  • 시스템 환경 변수를 설정한다.
    • 시스템 환경 변수 검색 후 클릭

      png


    • 환경 변수 클릭

      png


    • 각 사용자 계정에 사용자 변수 - 새로 만들기 버튼 을 클릭

      png


    • SPARK_HOME 환경 변수를 설정한다.

      png


    • JAVA_HOME 환경 변수를 설정한다.

      png


    • HADOOP_HOME 환경 변수를 설정한다.

      png


    • 이번에는 PATH 변수를 편집한다.

      png


    • 아래 코드를 추가한다.

      • %SPARK_HOME%\bin

      • %JAVA_HOME%\bin

        png


파이썬 환경 설정

  • Python 환경 설정을 추가한다.

    png


스파크 테스트

  • CMD 파일을 열고 c:\spark 폴더로 경로를 설정 한 뒤 pyspark 로 실행

    1
    2
    cd c:\spark # 경로를 c:\spark 로 설정
    pyspark # 실행

    png


  • 해당 [README.md](http://README.md) 파일을 불러와서 아래 코드가 실행되는지 확인한다.

    1
    2
    3
    4
    >>> rd = sc.textFile("README.md")
    >>> rd.count()
    109
    >>>

Comment and share

개요

  • 이 글은 Git Bash와 VScode를 이용한 폴더 생성 및 가상 환경을 설정 하여 구동(activate)하는 과정을 설명한 글 입니다.

(1) Git bash

  • git bash 프로그램을 실행하여 설정 할 경로를 잡아준다.

    • 참고: 아래는 git bash 프로그램의 간단한 명령어 이다

      1
      2
      3
      cd ..             # 상위 폴더인 이전 경로로 이동
      cd '{폴더이름}' # 하위 폴더의 폴더이름으로 경로 이동
      ls # 현재 경로의 하위 폴더 및 파일을 나타내줌
    • 필자는 c드라이브로 폴더를 생성하겠다.

    png


  • 해당 경로에 폴더를 생성한 뒤 경로를 이동한다.

    1
    2
    mkdir "{폴더이름}" # 폴더 생성
    cd "{폴더이름}" # 경로 이동

    png


  • code . 을 입력하여 VScode 프로그램을 실행 및 파일을 불러온다.

    png

    png


(2) VScode

  • 연결된 Vscode 프로그램에서 터미널(Terminal)창을 켠 뒤 bash로 설정

    png


  • virtualenv venv 로 가상 환경 폴더 생성

    • venv라는 폴더가 생성 되면 정상적으로 실행 된 것이다.
    • bash: virtualenv: command not found : virtualenv virtualenv 모듈 설치가 안되어 있어서 생기는 오류 , pip install virtualenv 로 설치 한 뒤 , virtualenv venv 한번 더 실행.

    png


  • source venv/Scripts/activate 로 가상 환경 설정, 정상적으로 실행이 되면 경로 맨앞에 (venv)라는 문구가 나타난다.

    png

    • Tip: source v를 입력후 Tap키를 눌렀을때 venv가 나오면 정상적으로 실행가능.


  • 로컬 환경으로 다시 전환 하려면 deactivate 를 입력하면 가능하다.

    png

Comment and share

  • 이 글은 Github blog를 관리 및 운영하는데 필자가 겪은 에러, 어려움 등을 해결하는 과정을 기록할 목적으로 만들어졌습니다.

개요

  • git push를 하는 과정에서 발생한 error fatal: The current branch main has no upstream branch. 를 해결하는 과정을 설명

error fatal: The current branch main has no upstream branch.

  • git push를 하는 과정에서 다음과 같이 오류가 생김

    png

    • 이 에러는 원격 저장소 이름을 언급하지 않아서 생긴다.
  • git remote -v 로 원격 저장소 이름을 찾은 뒤 원격 저장소를 git push origin main 로 명시해주면 된다.

Comment and share

  • 이 글은 Github blog를 관리 및 운영하는데 필자가 겪은 에러, 어려움 등을 해결하는 과정을 기록할 목적으로 만들어졌습니다.

개요

  • Ubuntu 프로그램 WSL2 Linux 환경에서 발생한 에러인 E212: Can’t open file for writing 를 해결하기 위한 과정을 작성한 것 입니다.(필자는 경로 설정을 잘못하여 에러가 발생한 것이지만 경로 설정이 맞는 일반적인 상황에서의 해결도 작성되어 있습니다.)

  • 22/4/13 강사님의 블로그를 통해 WSL2 설정을 마친 후 Linux 환경에 대한 명령어에 익숙해지기 위해 temp.sh 파일을 생성하여 적응하는 도중 작성한 기록을 저장하는 도중 E212: Can’t open file for writing 에러가 발생하였다. 이 에러는 권한 문제로 나온 것 같다.

    png


  • 이럴때는  sudo vi 만드려는 파일명 으로 하던지 파일 생성후  저장 할때 :w !sudo tee % > /dev/null 로 해결 가능하다고 한다.
    1
    :w !sudo tee % > /dev/null

    png


  • 하지만 필자는 저장 및 파일을 닫기도 불가능하다. (:q! 로 나갈수는 있었으나 저장이 불가능, root 계정을 확인했는데.. 왜 불가능할까)

  • 확인해보니 경로가 잘못되어 있었다.. (혹시나 boot 같은 다른 파일을 잘못 건들면 삭제하고 다시 설치 하며 환경 설정을 재 설정 해야되는 불상사가 일어날 수 있으니 조심)

    png


  • cd .. 으로 기본 값으로 돌아와서 cd root 로 경로 설정을 한 뒤에 sudo vi temp.sh 로 temp.sh 파일을 생성(파일이 이미 있으면 편집으로 돌아옴) png
    1
    2
    3
    4
    cd.. # 이전 경로로 이동
    ls # 내가 위치한 경로의 파일 확인
    cd root # root 파일로 경로 이동
    sudo vi file.text # 파일 생성 및 편집 **필자는 {temp.sh} 파일을 생성 하여 편집함
    • 여기서 root 는 관리자 라는 의미로 파일을 수정 및 삭제 등 이 가능, 필자가 들은 바로는 회사에 들어가서 하나의 프로젝트를 맡아서 작업을 한다면 root 가 아닌 다른 계정을 받아 권한을 얻어야 된다고 함.

  • temp.sh 파일 생성 및 저장 후 종료가 가능해졌습니다. (:wq 는 리눅스 환경에서 저장하고 나가기)

    png

Comment and share

개요

  • 이 글은 Github blog를 관리 및 운영하는데 필자가 겪은 에러, 어려움 등을 해결하는 과정을 기록할 목적으로 만들어졌습니다.


  • 평소 Github 블로그에 대해 그 날 들은 강의들만 올리다가 강사님의 따끔하신 일침으로 제대로 된 관리를 해보자 라는 생각이 들어 실행에 옮겨보았다. Github 블로그에 글을 올리는 것은 가능했으나 글을 분류하기 위한 카테고리, 태그 등 깔끔하게 블로그 관리를 못하는 상황이라 블로그를 새롭게 개편해보기로 마음 먹었다.

테마

  • 처음 눈에 뜨인 것은 “블로그 테마” 어떻게 하면 블로그를 조금 더 깔끔하게 보일수 있으면 어떨까란 생각에 다른 사용자의 글을 보며 결국 테마를 “tranquilpeak“ 으로 변경하기로 했다.

    GitHub - kakawait/hugo-tranquilpeak-theme: A gorgeous responsive theme for Hugo blog framework

  • 위 링크를 참고하며 tranquilpeak 테마를 변경하는 중 수많은 에러들이 발생하였고 해결하며 테마 변경을 하였다. (해결 당시 글을 쓰고 있지 않아 뒤죽박죽 섞여서 과정 설명은 참고 사이트로 대체 합니다.)

    1
    Remote origin already exists
    • Remote origin already exists : 기존에 연결되어 있는 레파지토리가 다시 새로운 레파지토리에 소스코드를 올리려고 하면 발생되는 에러.
    1
    Fatal : refusing to merge unrelated histories
    • Fatal : refusing to merge unrelated histories : 이 오류는 명령어 git push 또는 git pull을 진행할때 발견할 수 있는 오류, 로컬 저장소와 원격지의 저장소 기록을 비교했을 때 소스코드의 차이가 심한 저장소의 경우, 병합 오류가 날 것을 대비하여 오류 메시지를 띄우는 것 입니다.
    1
    [rejected] master → master (non-fast-forward) : gitignore

환경 설정

  • 테마 변경 후 블로그 환경 설정을 위해 사이드바 메뉴 설정 및 RSS feed 등 변경
    • 테마 이미지 및 프로필 이미지, favicon 수정 및 categories, tags, archives 설정 후 확인

      png

      • email 설정은 url이 mailto라고 되어 있을텐데 mailto:사용자아이디@메일 로 변경
      1
      2
      3
      4
      5
      # {project_name}/themes/tranquilpeak/_config.yml
      mail:
      title: global.mail
      url: mailto:dksenghd123@naver.com
      icon: fa fa-envelope
    • 테마, 프로필 이미지 및 favicon 수정은 잘되었으나 categories, tags, archives 등 아래 사진과 같이 되어 확인.

      png

      • 확인 해보니 잘못된 저장 경로({project_name}/themes/tranquilpeak/source/all-categories)에 위치하여 {project_name}/source/all-categories 로 변경 후 확인, 정상 작동
      1
      2
      3
      # {project_name}/themes/tranquilpeak/source/all-categories
      # ↓↓↓↓↓↓↓↓↓↓ 저장된 위치 변경
      # {project_name}/source/all-categories

      png

      • 참고 사이트 https://allaboutmoon.tistory.com/232
      • categories 와 tags이 비어 있어 작성한 글에 categories 및 tags 추가 후 확인, 정상 작동
        1
        2
        3
        4
        5
        6
        7
        8
        # {project_name}/source/_post/{my_post.md}
        ---
        title: "AI_Project_SpaceShip_Titanic"
        author: "winters"
        date: '2022-04-06'
        categories: 'Project'
        tags: 'project'
        ---
        png

Comment and share

Author's picture

Winters

개발자를 꿈꾸는 어른이


개발자(예비)


대한민국/서울