Main Page
My Skills
About Me
Archiving

KIM JUN CHEOL

To Be Computational Designer

컴퓨테이셔널 디자이너를 목표로 코딩하는, 김준철입니다. 건축학을 전공하며 디자인과 산업의 전반적인 관계를 체득했습니다. 이런 배경으로 디자이너와 개발자의 양방향 커뮤니케이션에 익숙합니다. 계속 성장하며, 프로젝트 진행 속에서 성취감을 느끼고 싶습니다.

What What
I'm I'm
Good Good
At At

HTML/CSS

· 가상선택자를 활용하여 동적UI를 작성할 수 있습니다.
· DOM객체와 트리구조를 이해하고 있습니다.
· 이벤트를 이용하여 인풋값을 변수로 활용할 수 있습니다.
· 사용자의 해상도를 고려하여 반응형 CSS 속성을 계획하거나, 미디어 쿼리를 이용할 수 있습니다.

Javascript

· ES6+ 문법에 익숙합니다.
· class 객체를 활용하여 동적으로 객체를 생성 및 조작할 수 있습니다.
· 이벤트리스너를 활용하여 설계한 기능을 수행시킬 수 있습니다.
· 논리적인 알고리즘을 짤 수 있습니다.

Python

· numpy를 활용하여 알고리즘을 설계할 수 있습니다.
· tkinter를 이용하여 GUI 개발을 한 경험이 있습니다.
· matplotlib, selenium, pandas를 활용하여 데이터 분석 및 시각화를 할 수 있습니다.

95년 8월생
010 - 4037 - 3620
대전 서구 둔산동
Instagram: juncheol__
rine889@naver.com
김준철
Who
Am
I?
충남대학교 건축학과(5년제) 전공 Photoshop, Autocad, SketchUp, Revit, Rhino, V-ray, Rumion, Enscape 툴 활용 가능 학부 특성상 밤샘작업에 특화 30회 이상 팀프로젝트 참여 의사소통에 대한 두려움이 적다
미래융합교육원 [빅데이터 UI 전문가] 과정(5개월) 수료 Python - numpy, tkinter, pandas, Selenium, Matplotlib 등 라이브러리 활용 가능 HTML, CSS - 웹 표준 규격을 준수하며, 프론트엔드 설계 및 구현 가능
My Works

CJ문화재단

클론코딩 및 디자인 개선,
팀 프로젝트 : 팀장역할 수행

스타벅스

클론코딩,
개인프로젝트

코딩촌의 진실

Javascript기반 웹게임 만들기,
팀 프로젝트 : 팀장역할 수행

퍼퓸그라피

리디자인,
개인프로젝트

colonist

리디자인,
개인프로젝트

이응노 미술관

리디자인,
개인프로젝트

[빅데이터구축]
큼_프로젝트

빅데이터구축 프로그램,
개인 프로젝트

[빅데이터분석 및 시각화]
채용데이터 분석

빅데이터분석 및 시각화,
개인 프로젝트

[빅데이터 데이터프레임 분석]
멜론차트 분석

빅데이터 데이터프레임화 및 시각화,
개인 프로젝트

<
>

큼_프로젝트(Crawring Machine)

프로젝트 개요

#Python - Tkinter(GUI), Selenium 라이브러리 활용

빅데이터 분석을 위한 분석용 데이터 구축 전략

빅데이터 분석에 앞서 분석용 데이터를 구축하고자 CM_큼 프로젝트를 진행했습니다. 크롤링 머신의 줄임말인 “큼”은 유저가 원하는 사이트에서 키보드 및 마우스 입력을 받을 수 있도록 하고, 원하는 데이터를 무제한적으로 얻기 위해 크롤링 된 데이터 임시저장하도록 설계했습니다. 또한 모든 페이지의 정보를 얻기 위해 페이지를 넘기는 행동처럼 반복적인 행동을 필요로 하는 크롤링을 가능하게 하도록 고민해야 했습니다. 그 결과 반복적인 행동의 시점을 정할 수 있도록 만들어서 반복적인 데이터 구축을 실현시키고자 노력했습니다. 또한 구축에 그치지 않고 원하는 매크로 및 행동의 시퀀스를 저장하도록 만들어 유저가 원하는 매크로 및 행동을 원할 때마다 수정 및 저장, 변경할 수 있도록 했습니다.

1/5

1. Tkinter(GUI)를 이용한 그래픽 유저 인터페이스

Tkinter 라이브러리를 이용하여 그래픽 유저 인터페이스를 구현했다. 해당 인터페이스를 클릭하고 원하는 데이터를 입력하여 저장하면, 저장된 순서에 따라 프로그램이 실행된다.

2/5

2. 실행 후 데이터 저장 형태

원하는 시퀀스를 설정할 이후 상단의 시퀀스 - 실행 탭을 클릭하여 프로그램을 실행시킵니다. txt저장 명령에 의해 각각의 데이터들이 new line 을 기준으로 저장됩니다.

3/5

3. 시퀀스 저장 및 불러오기

실행 이후 시퀀스를 공유 혹은 수정하기 위해 상단의 시퀀스 - 내보내기 탭을 클릭하여 저장합니다. 해당 파일의 '파일이름.txt' 이름을 불러오면 프로그램에 해당 시퀀스를 불러올 수 있습니다.

4/5

설정한 매크로를 진행시킬 뿐 아니라, 시퀀스를 저장 및 불러오기를 수 있게 만들었습니다. 데이터 구축을 위한 시퀀스를 수정 및 삭제, 저장할 수 있게 설계하여 데이터의 유지/보수/관리가 용이하도록 의도했습니다. 하단에 프로그램 소스가 저장된 깃허브 주소를 연결시켰으니, 궁금하신 분들은 해당 사이트에 접속하여 확인해주시기 바랍니다.

Github : 클릭하세요!

5/5
<
>

[빅데이터분석 및 시각화]채용데이터 분석 및 시각화

프로젝트 개요

#Python - Tkinter(GUI), Matplotlib, Numpy 라이브러리 활용

데이터 분석 전략

큼 프로젝트에서 구축한 데이터를 바탕으로 채용 데이터를 분석하는 프로그램을 개발했습니다. 사람인에서 "개발자" 키워드로 검색된 8352개의 데이터를 크롤링하여 분석했습니다. 해당 프로그램은 지역 -> 희망연봉 -> 학력 -> 고용 형태 -> 경력을 입력받아 지역별 해당 채용정보의 건 수를 Matplotlib 라이브러리를 통해 bar_chat 형태로 시각화합니다. 데이터의 전처리와 중간 필터링 과정에 고민을 많이 했으며, 이를 시각화하고자 tkinter와 matplotlib을 학 습하여 구현했습니다. 중간 필터링을 실현시키기 위해서 Tkinter 에 선택한 항목을 선택하면 1, 선택하지 않으면 0인 배열로 저장했습니다. 이후 후처리 필터링 과정에서 1과 0을 이용해서 데이터를 가감했습니다.

1/4

1. 채용데이터 필터링 과정

2/4

2. 실행 후 데이터 시각화

Matplotlib 라이브러리를 활용하여 필터링된 데이터를 바차트로 구현했습니다.

3/4

필터링을 위한 알고리즘 뿐만 아니라, Tkinter를 활용해 사용자에게 친숙하게 만들고자 노력했습니다.

Github : 클릭하세요!

4/4
<
>

melonChartDataAnalysis

프로젝트 개요

#Python - Tkinter(GUI), Selenium, Numpy, Pandas 라이브러리 활용

데이터 크롤링 및 데이터 분석 전략

Selenium 라이브러리를 이용하여 Melon 2020차트와 2021 차트의 데이터를 수집했습니다. 수집한 데이터의 전처리 과정을 통해서 Pandas, Numpy 라이브러리를 활용하여 데이터프레임화 시켰습니다. 데이터프레임으로 분류된 데이터를 엑셀형태로 저장하며, 데이터프레임을 기반으로 데이터 분석을 실시했습니다. 결과적으로 데이터프레임의 후처리를 통해 Matplotlib 라이브러리로 시각화를 하는 프로젝트 였습니다.

1/5

1. 크롤링과 데이터프레임 선언

Selenium을 통해 크롤링된 데이터를 각각의 데이터프레임으로 선언하여 저장했습니다.

2/5

2. 크롤링과 데이터프레임 선언

해당 데이터프레임을 엑셀파일로 저장했습니다.

3/5

3. Matplotlib을 활용한 데이터 시각화

데이터프레임의 데이터를 분석하여 추출된 데이터를 시각화했습니다.

4/5

원하는 주소에 접속하여 원하는 형태의 데이터를 수집하여 전처리를 함과 동시에 데이터프레임으로 만들어 분석하였습니다. column 과 row 형태의 데이터프레임을 이용함으로 데이터분석이 더욱 용이했습니다. 해당 모듈이 궁금하다면 하단의 깃허브로 접속해주시기 바랍니다.

Github : 클릭하세요!

5/5
© 2022. Kim Jun Cheol. All rights reserved.