본문으로 바로가기 하단전체메뉴로 바로가기

"SK 플래닛과 제휴사가 보유한 다양하고 유용한 API를 사용해보세요."
SK planet 기술 블로그
person 정찬명 date_range 2017.05.18
flex item의 팽창과 수축, flex item의 방향과 순서에 이어 오늘은 ‘flex item의 정렬과 간격‘에 관하여 설명합니다. 먼저 진행 축(main axis)과 교차 축(cross axis)을 이해할 필요가 있습니다. ‘진행 축’이란 flex item이 배치되는 축(x/y)을 의미합니다. ‘교차 축’이란 flex item이 배치되는 방향과 90도 교차하는 축을 의미합니다. 진행 축과 교차 축은 상대적인 개념이라서 flex-direction의 값(row, column)에 따라 교차 축이 바뀌기 […]
CSS3 flex layout
person 정찬명 date_range 2017.05.16
이전에 “CSS flexible 레이아웃: flex item의 수축과 팽창” 이라는 포스트를 작성했는데요. 오늘은 flex item의 방향과 순서를 설명합니다.  오늘 설명할 속성은 flex item의 방향을 제어하는 flex-direction, 줄 바꿈을 제어하는 flex-wrap, 그리고 방향과 줄 바꿈을 단축 속성으로 제어하는 flex-flow, 배치 순서를 제어하는 order 라는 속성입니다. 예제를 보면서 이해하기에 충분하므로 자세한 설명은 생략합니다. flex item의 ‘방향’을 제어하는 ‘flex-direction’. […]
CSS3 flex layout
person 정찬명 date_range 2017.04.24
오늘은 흔히 flex 또는 flexible 박스 모델이라고 부르는 CSS Flexsible box layout module level 1(Candidate Recommendation) 명세를 설명해 보려고 합니다. 아직 표준 후보 단계이지만 현존하는 최신 브라우저에 flexible box layout module은 이미 구현되어 있습니다. 기존에 우리가 사용하던 레이아웃 기법은 display, float, position 으로써 컬럼 레이아웃을 표현하는데 한계가 있고 구현 방법이 복잡한 문제가 있었는데요. flexible(신축성 있는, […]
CSS3 flex layout
person 전우진 UI개발팀 date_range 2017.04.21
안녕하세요~ SK planet 전우진입니다. 최근 Front-End영역은 따라가기 힘들만큼 빠르게 변화하고 있습니다. 이런 환경속에서 우리가 작성해야하는 코드의 양도 점차 많아지고 복잡해지고 있는데요. “과연 우리가 생산하고있는 코드는 좋은 코드일까?”, “어떻게 하면 더 빠르고 가벼운 코드를 만들 수 있을까?” 하는 물음에서 시작된 FE CI/정적분석 서버 구축에 대한 내용을 공유드립니다. 이번 발표는 Jenkins를 이용한 빌드자동화와 이력관리 그리고 SonarQube를 이용한 […]
기술 세미나 javascript SonarQube
person 추이삭 Data Infrastruct date_range 2017.02.24
수안녕하세요. Data Infrastructure팀(이하 DI팀)에서 최근에는 주로 Data Application 개발을 하고 있는 Data Engineer 추이삭입니다. 이번 내용은 데이터 입수 과정에서 주요한 이상징후를 탐지하고 탐지 결과를 유관된 구성원들에게 전파하기 위한 시스템 또는 활동에 대한 소개입니다. 배경 SK플래닛은 다양한 서비스와 BM을 보유하고 있고, 200여개의 클라이언트/서버 로그와 800여개의 DB스냅샷데이터를 입수하고 있습니다. 원천 데이터의 제공 방식도 매우 다양하여 여러 가지 […]
Anomaly DIC DI클러스터 Profiler Spark Spark Streaming 이상징후
person 추이삭 Data Infrastruct date_range 2017.02.24
안녕하세요. Data Infrastructure팀(이하 DI팀)에서 최근에는 주로 Data Application 개발을 하고 있는 Data Engineer 추이삭입니다. 이번 내용은 DI팀에서 입수한 데이터가 어떻게 파생되어 사용되는지 검색/조회할 수 있는 도구의 소개입니다. 배경 DI팀이 운영/제공하는 하둡 클러스터의 데이터 입수는 주로 DI팀이 담당하지만, 이 클러스터(이하 DIC)를 이용하여 데이터 프로덕트 개발 또는 분석을 수행하는 조직은 약 90여개 팀이 있습니다. 그리고 Hive 테이블은 […]
Data Lineage DIC Dictionary DI클러스터 Hive Metadata Spark
person 엄태욱 date_range 2017.02.15
안녕하세요. Data Infrastructure팀(이하 DI팀)에서 Data Infra/Application 개발을 하고 있는 Data Programmer 엄태욱 입니다. 이번 글을 통해 지난 글에 공유 드렸던 실시간 데이터 처리 결과와 함께 Spark으로 재구현한 xTogehter를 이용해, 기존에 11번가에서 사용하던 레코픽(이하 RecoPick) 추천 엔진을 Colloseo 추천 엔진으로 교체한 과정을 공유하겠습니다. 11번가의 추천 서비스 11번가는 RecoPick에서 제공하는 두 가지 추천 서비스를 사용합니다. 먼저, “실시간 개인화 […]
DIC DI클러스터 Recommendation recopick Spark ViewTogether
person 임형태 Fintech기술개발팀 date_range 2016.12.09
Fintech 기술개발팀의 임형태입니다. 사용자 인증 시 고민하게 되는 비밀번호 암호화와 데이터 암호화 도구에 대해 순수 웹 결제 플랫폼을 지향하는 시럽페이에 반영된 One Password Protocol (by Mozilla)과 JOSE(by Web Payment Group in W3C) 기술에 대해 간략하게 설명합니다. 아래 강의 자료 슬라이드와 동영상을 참고하세요~. 감사합니다.
기술 세미나 Fintech JOSE One Password Protocol Syrup pay
person 김용휘 date_range 2016.12.01
Data Infrastructure 팀 김용휘 매니저입니다. 개발 환경이 복잡해짐에 따라 개발 스택이 다양해 지고, 개발자들이 개발 환경을 구축하는데 많은 시간이 낭비되곤 합니다. 이 뿐만 아니라 크리티컬하게는 개발 환경에서는 잘 되어서 반영했는데 운영에서 장애가 발생하는 경우도 있습니다. (보통 이런 문제는 운영 환경과 개발 환경이 다른 점이 원인으로 귀결되곤 하죠 ^^) 저는 이러한 문제의 해결 도구로 docker-compose 와 vagrant […]
기술 세미나 docker-compose Vagrant 개발환경
facebook 개발자활동 페이지
[2017SW동아리 재능기부 챌린지] 소기업·소상공인 맞춤형 SW개발을 통해 총 상금 1,100만원과 스펙까지! 대학생분들, 지금바로 접수하세요. http://ezone.iitp.kr/common/anno/02/form.tab?PMS_TSK_PBNC_ID=PBD201700000052
이번 포스팅은 입수한 데이터가 어떻게 파생되어 사용되는지 검색/조회할 수 있는 도구의 소개입니다. SK플래닛의 Data Infrastructure팀이 운영/제공하는 하둡 클러스터의 데이터 입수는 주로 해당 팀에서 담당하지만, 이 클러스터를 이용하여 데이터 프로덕트 개발 또는 분석을 수행하는 조직은 약 90여개 팀이 있습니다. . 많은 조직/구성원들이 클러스터를 사용하는데 어떤 데이터들이 있는지 탐색을 하거나, 입수한 데이터를 누가 어떤 방식으로 프로세싱을 해서 활용하는지 추적하기란 매우 어려운 일입니다. 전통적인 BI/DW 조직에서는 Top-down 방식으로 전체를 조망하고 관리하는데, 많은 서비스/팀들을 상대해야 하는 상황이라 이러한 문제를 풀 수 있을까 하는 고민에서 본 도구를 만들기 시작했습니다. 자세한 이야기를 클릭해서 확인하세요~:) http://readme.skplanet.com/?p=13565
SK플래닛은 다양한 서비스와 BM을 보유하고 있고, 200여 개의 클라이언트/서버 로그와 800여 개의 DB스냅샷데이터를 입수하고 있습니다. 원천 데이터의 제공 방식도 매우 다양하여 여러 가지 데이터 입수기를 개발/운영하고 있는데요~, 데이터의 종류도 많고 데이터 입수기의 종류도 다양하여 일정 수준으로 공통화 시키고 상태를 관찰하는 업무가 매우 중요합니다. 사내에 시스템 모니터링을 위한 도구/시스템들은 많지만, 데이터 입수기/서비스 데이터에 대한 이상징후를 탐지하는 시스템은 없어, 데이터 입수 이상징후 탐지 시스템을 개발하게 되었습니다. https://readme.skplanet.com/?p=13557
실시간 데이터 처리 결과와 함께 Spark으로 재구현한 xTogehter를 이용해, 기존에 11번가에서 사용하던 RecoPick 추천 엔진을 Colloseo 추천 엔진으로 교체한 과정을 공유한 엄태욱 님의 글입니다. Spark Streaming을 이용한 실시간 추천 데이터 처리와 Spark을 이용한 추천 배치 처리가 모두 AWS에서 DI클러스터로 전환되어 AWS 비용 감소 효과와 DI클러스터 활용 증대를 모두 달성하였습니다. 또한 더 나은 추천 결과를 통해 매출 기여와 사용자 만족도 향상에도 기여하였습니다. 올해도 Colloseo 추천 엔진은 다양한 실험을 통해 11번가에 다양한 추천을 제공할 예정입니다. http://readme.skplanet.com/?p=13507
이번 포스팅에서는 Syrup pay 인증 모듈 개발 사례를 주제로, 사용자 인증 시 고민하게 되는 비밀번호 암호화와 데이터 암호화 도구에 대해 순수 웹 결제 플랫폼을 지향하는 시럽페이에 반영된 One Password Protocol (by Mozilla)과 JOSE(by Web Payment Group in W3C) 기술에 대해 간략하게 설명합니다 http://readme.skplanet.com/?p=13494
개발 환경이 복잡해짐에 따라 개발 스택이 다양해 지고, 개발자들이 개발 환경을 구축하는데 많은 시간이 낭비되곤 합니다. 이 뿐만 아니라 크리티컬하게는 개발 환경에서는 잘 되어서 반영했는데 운영에서 장애가 발생하는 경우도 있습니다. 이런 문제의 해결 도구로 docker-compose 와 vagrant 에 대한 소개와 실무에 적용한 경험을 포스팅을 통해 공유합니다. http://readme.skplanet.com/?p=13470
SK planet의 클라우드 서비스에서 사용한 Twemproxy와 Redis failover에 대한 내용을 공유합니다. Redis는 최근에 메모리DB, NoSQL 이라는 이름으로 빠른 응답성을 가져야 하는 서비스에 많이 이용되고 있습니다. Redis는 데이터가 메모리에 저장된다는 특징으로 높은 응답 성능을 보이지만, HA(High Availability)를 위해서는 다른 도움을 받아야 합니다. Twemproxy라는 Redis proxy 서버를 이용하여 데이터 저장의 샤딩(Sharding)과 Redis failover에 대한 방법 중에 하나로 정리된 자료입니다. Redis를 실제 서비스에 적용하여 사용하는 분들에게 장애에 대비하는데 좋은 참고자료가 되기를 바랍니다. http://readme.skplanet.com/?p=13477
이번 글에서는 Data Compliance가 무엇이고, SK플래닛에서는 어떻게 대처하고 있는지 아래 내용을 통해 소개해 드리고자 합니다. - Data Compliance의 정의 - SK플래닛 Data Infrastructure에서 다루는 데이터의 종류 - SK플래닛의 Data Compliance 현황 - 데이터 암호화를 중심으로 한 Data Compliance 실무 이해 - SK플래닛의 데이터 지표 관리 암호화와 탈퇴회원 처리 등 Log Data Compliance Issue에 관심이 많으신 분들에게 도움이 되길바라며, 자세한 내용은 블로그에서 확인해주세요. 많은 관심 부탁드려요. :) http://readme.skplanet.com/?p=13381
이번에 소개해 드릴 내용은 SK플래닛의 추천 플랫폼인 레코픽(RecoPick)에서 실시간 로그 처리를 위해 AWS(Amazon Web Services) 상에서 Storm을 기반으로 구현됐던 작업들을, 사내 클러스터인 DI클러스터(이하 DIC)에서 Spark Streaming 작업으로 전환한 경험입니다. 3초 주기의 Spark Streaming으로 RecoPick 서비스의 AWS Storm을 DIC Spark Streaming으로 전환 개발해 유실 없이 중복은 최소화하며 하루 최대 3천만건의 로그를 안정적으로 처리 중인데요~ 자세한 사항을 클릭! 해서 확인하세요. http://readme.skplanet.com/?p=13297