[AICE Associate] - 합격 후기(+공부방법/꿀팁)
AICE Associate 란??
AICE AI Certificate
for Everyone
AICE는 인공지능 능력시험입니다. (AI 자격증)
영어 능력을 평가하는 토익처럼,
AICE는 인공지능 활용능력을 평가합니다.
KT가 개발했고, 한국경제와 함께 주관합니다.
AICE 시험의 경우 에이블스쿨에서 금액을 지원해주기 때문에, 그동안 들었던 수업과 kt aivle school 7기 에서는 AICE Associate 시험을 합격하는데에 큰 자료와 특강을 진행해주기 때문에 해당 교육을 성실하게 듣는다면 푸는데 지장은 없었습니다!!
📚 AICE 시험 대비: 필수 라이브러리 & 주요 구문 완료 정리
✨ AICE 시험을 준비하는 분들을 위해, 필수 라이브러리와 기초 구문을 예시와 함께 과연과하게 정리했습니다. (화이트 배경에서도 깊이 가능하게 가운화했습니다.)
🛠️ 1. AICE 필수 라이브러리 설치
AICE 시험은 Python 환경에서 진행되고, 문제 풀기 전에 미리 관련된 라이브러리는 import 를 다 표시해준 상태여서 따로 해당 파트는 신경 안쓰셔도 됩니다!
📚 2. 라이브러리별 주요 기능과 사용방법
2.1 pandas (데이터 처리)
표 형태(에트켈처러처럼)의 데이터 읽기, 가공, 저장 등에 사용
import pandas as pd
# CSV 파일 읽기
df = pd.read_csv('파일명.csv')
# 데이터 상위 5개 행 출력
print(df.head())
# 여러 여부에 추가
df['새로운여부'] = df['기존여부'] * 2
# 결식치(null) 확인
print(df.isnull().sum())
# 결식치 평균으로 채워기
df['컬럼명'] = df['컬럼명'].fillna(df['컬럼명'].mean())
# 튼정 여부만 선택
new_df = df[['여1', '여2']]
2.2 numpy (수치 열사)
빠른 수치계산과 배열(array) 단조보
import numpy as np
# 배열 생성
arr = np.array([1, 2, 3, 4])
# 평균, 표준평차 계산
mean_val = np.mean(arr)
std_val = np.std(arr)
print(f"평균: {mean_val}, 표준평차: {std_val}")
# 0으로 초기화된 배열
zero_arr = np.zeros((3,3))
# 랜덤값 배열 생성
random_arr = np.random.rand(2,2)
2.3 matplotlib & seaborn (데이터 시각화)
그래프를 이용해 데이터 패턴 가이드
import matplotlib.pyplot as plt
import seaborn as sns
# 선 그래프
plt.plot([1, 2, 3], [10, 20, 30])
plt.title('선 그래프 예시')
plt.xlabel('X축')
plt.ylabel('Y축')
plt.show()
# 막대 그래프
sns.barplot(x='카테고리', y='값', data=df)
plt.title('막대 그래프 예시')
plt.show()
# 상관관계 히트맵
corr = df.corr()
sns.heatmap(corr, annot=True, cmap='coolwarm')
plt.title('상관관계 히트맵')
plt.show()
2.4 scikit-learn (머신롤과 기준)
데이터 분리, 전처리, 모델 학습과 평가
데이터 분리
from sklearn.model_selection import train_test_split
X = df.drop('타겟여부', axis=1)
y = df['타겟여부']
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
전처리 (Standard Scaling)
from sklearn.preprocessing import StandardScaler
scaler = StandardScaler()
X_train_scaled = scaler.fit_transform(X_train)
X_test_scaled = scaler.transform(X_test)
기본 모델 학습과 예측
from sklearn.linear_model import LogisticRegression
from sklearn.metrics import accuracy_score
model = LogisticRegression()
model.fit(X_train_scaled, y_train)
y_pred = model.predict(X_test_scaled)
print("정확도:", accuracy_score(y_test, y_pred))
2.5 xgboost & lightgbm (고성능 Boosting 모델)
XGBoost 예시
import xgboost as xgb
model = xgb.XGBClassifier()
model.fit(X_train, y_train)
y_pred = model.predict(X_test)
print("XGBoost 정확도:", accuracy_score(y_test, y_pred))
LightGBM 예시
import lightgbm as lgb
model = lgb.LGBMClassifier()
model.fit(X_train, y_train)
y_pred = model.predict(X_test)
print("LightGBM 정확도:", accuracy_score(y_test, y_pred))
📝 3. 꼭 알아야 할 추가 구문
📌 결식치 채워기
# 튼정 값으로 결식치 채워기
df['컬럼명'].fillna(0, inplace=True)
📌 Label Encoding (범주형 변수 수치화)
from sklearn.preprocessing import LabelEncoder
le = LabelEncoder()
df['범주형여부'] = le.fit_transform(df['범주형여부'])
📌 데이터 요약
# 요약 통계
print(df.describe())
# 데이터 타입 구조 확인
print(df.info())
✅ 정리
구분 주요 기능 라이브러리
| 데이터 처리 | 데이터 읽기, 정제 | pandas |
| --- | --- | --- |
| 수치 계산 | 배열 열사, 통계 | numpy |
| 시각화 | 그래프 작성 | matplotlib, seaborn |
| 머신롤 기준 | 데이터 분리, 학습 | scikit-learn |
| 고성능 ML | Boosting 모델 | xgboost, lightgbm |
✨ Tip!
AICE 시험은 "속도" 및 "정확성" 문제가 필요합니다.
현재 가장 중요한 것은 일시적으로 방향을 이해하고 진행하는 것입니다!
-----------------------------------추가적인 꿀팁--------------------------------------
위 사항들에 대해서 여러가지 두려움이 있을거에요! 저 많은 모델의 라이브러리들을 어떻게 기억하지?..
특히 딥러닝 모델을 직접 코드로 구현할 때는 라이브러리 import 하는 것만 5~6줄일텐데..
이 경우 미리 AICE 측에서 따로 셀에서 필요한 라이브러리들은 적어놓기 때문에 걱정하실 필요 없고, 위에 것들만 잘 기억하시면 문제 없을 것 같습니다!
그리고 최적화된 가장 성능이 좋은 모델을 저장하고 , 불러와서 test,valid 데이터 셋을 통해 평가해보는 것도 해보시면 좋을 것 같구요!
라벨 인코더와 원핫인코딩의 차이와 원리를 잘 숙지하시고, 2개 이상의 데이터를 서로 사칙연산해서 하나의 프레임을 만들어 기존 데이터셋에 반영하는 방식도 해보시면 좋을 것 같습니다!