목록 전체 글 (304)
KEEP GOING

재테크 인스타툰을 그리시는 시골쥐님을 평소 팔로우하고 있었는데 그 분의 소개로 우연히 알게된 책입니다. 베스트셀러여서 어떤 내용일지 더욱 궁금했는데, 읽고나서 재테크에 있어 가장 기초적이면서도 중요한 내용들을 배울 수 있었습니다. 재테크를 해야하는 이유 1. 자존감을 높이기 위해서 2. 복리 효과를 누리기 위해서 3.넓은 세상을 보는 눈을 기르기 위해서 서두에 먼저 작가님은 우리가 재테크를 해야하는 이유를 세 가지로 짚어 주십니다. 왜 재테크를 해야하는지 목적이 없으면 금방 포기하기 쉽다는 말이 정말 공감됐습니다! 재테크의 첫 시작은 생활비 관리에 있다. 내가 정한 한도 내에서 소비하고 목표를 이루어가면 성취감에 자존감이 올라간다. 워렌버핏은 11살에 투자를 시작해 평생 투자 수익률이 연 23%에 달한다..

목차 현재 사용 중인 카드보다 더 좋은 혜택을 제공하는 카드를 찾아보고 싶어 글을 작성하게 되었습니다. 우선 현재 사용 중인 카드와 비교해보면서 인기 카드 항목들의 장점을 파악해보려고 합니다. 사용 중인 체크/신용카드 정리1. KB: My WE:SH 카드 (★★★★☆) KB: My WE:SH 카드는 신용카드로 17만원 캐시백 이벤트를 제공하고 있어 발급했던 카드입니다. 기본 혜택으로 KB Pay 간편결제 시 10% 할인, 음식점/편의점 10% 등을 제공하고 선택 혜택으로 세 가지 카테고리 중 하나를 고를 수 있습니다. 저는 영화를 자주 보는 편이라 노는데 진심을 선택했었는데요. 하지만 전월 실적 40만원을 채워야 한다는 압박이 있습니다. 그래도 꼼꼼하게 혜택을 잘 챙기면서 사용한다면 그만큼 뽕 뽑을 수 ..

목차 kss(korean sentence spliter)는 대표적인 한국어 문장분리기 도구입니다. kss.split_sentences의 간단한 사용법과 파라미터를 정리하고 split_sentences 사용 시 발생하는 ValueError: not enough values to unpack(expected 2, got 1) 해결 방법을 소개하겠습니다. kss의 split_sentences 사용 예제 from kss import split_sentences s = split_sentences('여름에 먹는 수박과 화채는 참 맛이 좋다. 선풍기 앞에서 먹어야 제 맛이지') print(s) kss의 split_senteces()를 사용하면 이렇게 한국어 문장을 잘 분리해주는데요. 동작과 동시에 내부적으로 mec..

7월 13/14일 그랜드 인터컨티넨탈 서울 파르나스에서 열린 인공지능 위크 2023 후기입니다. 회사 동료 덕분에 구글에서 열리는 이번 행사에 대해 알게 됐고 이틀에 걸쳐 행사에 참석하였습니다. 1일차는 일반인을 대상으로 한 AI for Everyone, 2일차는 기업을 대상으로 AI for Business 트랙이 진행되었습니다. google 부사장님인 yossi matias님께서 기조연설로 구글 AI에 대한 이런 저런 이야기를 소개해주셨습니다. AI를 통해 교통 체증을 완화하고 있고 의료, 헬스 등의 분야에도 성과를 내면서 구글은 사회의 성장을 돕고 친환경적인 기업임을 어필하는 이야기였습니다. 서울대학교 AI 연구원 원장인 장병탁 교수님의 미래 Next AI에 대한 의견이 기억에 남았습니다. 현재의 A..

예를 들어 다음과 같이 spark dataframe이 있다고 가정합니다. df = spark.createDataFrame([(1,), (1,), (4,), (4,), (4,), (5,), (6,), (8,), (3,)], ('col1',)) df.show() find duplicate values in spark dataframe 한 컬럼 안에서 중복인 값을 확인하고 싶을 때 df.groupBy('col1').count().where('count > 1').show() 만약 count 값은 확인하고 싶지 않다면 drop('count')를 추가합니다. df.groupBy('col1').count().where('count > 1').drop('count').show()

목차 from pyspark.sql import SparkSession spark = SparkSession.builder.getOrCreate() columns = ['id', 'phone_number', 'name', 'sex'] df = spark.createDataFrame([['1', "010-3333-4234", 'Jisu', 'female'], ['2', '010-9999-3231', 'Karina', 'female'], ['3', '010-6653-5888', 'Winter', 'female'], ['4', '010-7732-0029', 'Eunwoo', 'male']], columns) df.show() 우선 실습을 진행하기 앞서 샘플 spark dataframe을 생성합니다. 1. fi..

목차 1. 정규 표현식 [0-9]: 숫자 [a-z]: 영어 소문자 [A-Z]: 영어 대문자 ^: not |: or ?:하나 혹은 아예 없음(1개 또는 0개) *:없거나 하나 이상 있는 경우(0개 또는 1개 이상) +:하나 이상 있는 경우(1개 이상) .: 어떤 문자나 기호나 숫자 대괄호 밖의^: 맨 앞 .$: 문자열 맨 뒤의 문자나 기호, 숫자 2. 정규표현식 연습해보기 좋은 사이트(regex101) https://regex101.com/ regex101: build, test, and debug regex Regular expression tester with syntax highlighting, explanation, cheat sheet for PHP/PCRE, Python, GO, JavaScri..

목차 Spark Configuration(스파크 설정)spark application의 동작 방식을 제어하기 위해서는 다양한 설정이 필요합니다. 이러한 설정은 spark-default.conf 파일, spark-shell 또는 spark-submit 옵션, SparkConf을 통해 수정할 수 있습니다. 만약 여러 property를 동시에 적용한 경우, 적용 우선 순위는 SparkConf, spark-shell, spark-submit, spark-default.conf 순입니다. 1. SparkConf 인스턴스 사용from pyspark.sql import SparkSession from pyspark.conf import SparkConf conf = SparkConf().setMaster("local..