본문으로 바로가기 하단전체메뉴로 바로가기

"SK 플래닛과 제휴사가 보유한 다양하고 유용한 API를 사용해보세요."
SK planet 기술 블로그
person 노세호 Bot Platform개발팀 date_range 2017.08.09
안녕하세요, SK플래닛 Bot Platform 개발팀 노세호입니다. 모바일 커머스의 중요한 소비자 트렌드로 대화형 커머스(Conversational Commerce)가 떠오르게 되었고, 이 대화형 커머스의 중심에 있는 Chatbot을 개발하여 11번가의 전자제품을 상담해주는 디지털 컨시어지에 적용시켰던 경험을 공유해보려고 합니다. 그 중에서도 Chatbot의 두뇌 역할을 담당하는 DM(Dialog Management) 서버가 돌아가는 예시를 들면서 원리를 설명하고자 합니다. 자세한 내용은 강의 동영상과 자료 동영상을 참고 부탁 […]
기술 세미나 Chatbot Conversational Commerce Dialog Management) 챗봇
person 강병수 date_range 2017.08.08
안녕하세요. SK planet Data Infrastructure팀 강병수입니다. 이번 발표는 Apache Kafka에 대한 간단한 소개로 시작하여 팀의 현황과 고민, 그리고 해결 방향을 담고 있습니다. 고민을 해결하기 위해 Kafka Summit 2017 New York에 참석하여 외국의 사례들을 보고 왔고, 인터넷 자료들을 통해 도움을 많이 얻었습니다. 주로 Kafka Streams와 Kafka for microservices, Change Data Capture 이 주제가 되는 내용입니다. 그 […]
기술 세미나 kafka Kafka Streams Microservices
person 윤용성 개발혁신팀 date_range 2017.07.05
안녕하세요. SK 플래닛 개발혁신팀 윤용성입니다. 현재 11번가는 Legacy Application을 Spring Cloud 기반의 Micro Services로 전환하는 작업을 진행 중입니다. 1단계로 기존 하나의 Application으로 구성되어있는 서버를 단위 기능별로 API화하여 서버를 분리 진행 중이며, 이를 통해서 단위 기능별 빠른 배포와 증가하는 트래픽을 안정적으로 수용하기 위한 준비를 하고 있습니다.  아래 발표는 이 전환 작업에 대한 소개입니다. 첫번째 영상에서는 Tech Infra 개발본부의 백명석 본부장님께서 본 프로젝트의 개요와 추진 방향 및 일정에 대해서 설명해 주셨으며, 두번째 영상에서는 Spring Cloud의 주요 요소에 대한 설명과 11번가에 어떻게 적용되어 있는지에 관하여 소개합니다. 자세한 내용은 자료 슬라이드와 동영상을 참고 부탁 드립니다. 백명석 본부장님의 11번가 MSA 개발 사례에 대한 소개입니다. 11번가 Legacy application의 Spring Cloud 기반 Micro Services […]
기술 세미나 11번가 MSA 아키텍쳐
person 우종호 System Software개 date_range 2017.06.12
안녕하세요. SK플래닛 System Software 개발팀 우종호입니다. 요즘 A/B테스트가 중요한 키워드로 급부상하고 있습니다. 구글 GA에서 데이터 분석지표를 많이 보고 있었는데요, 구글은 Optimize라는 A/B테스트 솔루션을 제공하고 있습니다. 또한 넷플릭스에서도 자체 개발한 Experimentation Platform이라는 A/B테스트 플랫폼을 가지고, 영화, 드라마 컨텐츠 추천 알고리즘 등을 A/B테스트하고 있습니다. A/B테스트란 무엇인지, 왜 필요한지에 대한 내용과, 사내에서 A/B테스트를 수행하기 위해 SK플래닛에서 개발한 Planet […]
기술 세미나 A/B test
person 정찬명 date_range 2017.05.18
flex item의 팽창과 수축, flex item의 방향과 순서에 이어 오늘은 ‘flex item의 정렬과 간격‘에 관하여 설명합니다. 먼저 진행 축(main axis)과 교차 축(cross axis)을 이해할 필요가 있습니다. ‘진행 축’이란 flex item이 배치되는 축(x/y)을 의미합니다. ‘교차 축’이란 flex item이 배치되는 방향과 90도 교차하는 축을 의미합니다. 진행 축과 교차 축은 상대적인 개념이라서 flex-direction의 값(row, column)에 따라 교차 축이 바뀌기 […]
CSS3 flex layout
person 정찬명 date_range 2017.05.16
이전에 “CSS flexible 레이아웃: flex item의 수축과 팽창” 이라는 포스트를 작성했는데요. 오늘은 flex item의 방향과 순서를 설명합니다.  오늘 설명할 속성은 flex item의 방향을 제어하는 flex-direction, 줄 바꿈을 제어하는 flex-wrap, 그리고 방향과 줄 바꿈을 단축 속성으로 제어하는 flex-flow, 배치 순서를 제어하는 order 라는 속성입니다. 예제를 보면서 이해하기에 충분하므로 자세한 설명은 생략합니다. flex item의 ‘방향’을 제어하는 ‘flex-direction’. […]
CSS3 flex layout
person 정찬명 date_range 2017.04.24
오늘은 흔히 flex 또는 flexible 박스 모델이라고 부르는 CSS Flexsible box layout module level 1(Candidate Recommendation) 명세를 설명해 보려고 합니다. 아직 표준 후보 단계이지만 현존하는 최신 브라우저에 flexible box layout module은 이미 구현되어 있습니다. 기존에 우리가 사용하던 레이아웃 기법은 display, float, position 으로써 컬럼 레이아웃을 표현하는데 한계가 있고 구현 방법이 복잡한 문제가 있었는데요. flexible(신축성 있는, […]
CSS3 flex layout
person 전우진 UI개발팀 date_range 2017.04.21
안녕하세요~ SK planet 전우진입니다. 최근 Front-End영역은 따라가기 힘들만큼 빠르게 변화하고 있습니다. 이런 환경속에서 우리가 작성해야하는 코드의 양도 점차 많아지고 복잡해지고 있는데요. “과연 우리가 생산하고있는 코드는 좋은 코드일까?”, “어떻게 하면 더 빠르고 가벼운 코드를 만들 수 있을까?” 하는 물음에서 시작된 FE CI/정적분석 서버 구축에 대한 내용을 공유드립니다. 이번 발표는 Jenkins를 이용한 빌드자동화와 이력관리 그리고 SonarQube를 이용한 […]
기술 세미나 javascript SonarQube
person 추이삭 Data Infrastruct date_range 2017.02.24
안녕하세요. Data Infrastructure팀(이하 DI팀)에서 최근에는 주로 Data Application 개발을 하고 있는 Data Engineer 추이삭입니다. 이번 내용은 데이터 입수 과정에서 주요한 이상징후를 탐지하고 탐지 결과를 유관된 구성원들에게 전파하기 위한 시스템 또는 활동에 대한 소개입니다. 배경 SK플래닛은 다양한 서비스와 BM을 보유하고 있고, 200여개의 클라이언트/서버 로그와 800여개의 DB스냅샷데이터를 입수하고 있습니다. 원천 데이터의 제공 방식도 매우 다양하여 여러 가지 […]
Anomaly DIC DI클러스터 Profiler Spark Spark Streaming 이상징후
facebook 개발자활동 페이지
[2017SW동아리 재능기부 챌린지] 소기업·소상공인 맞춤형 SW개발을 통해 총 상금 1,100만원과 스펙까지! 대학생분들, 지금바로 접수하세요. http://ezone.iitp.kr/common/anno/02/form.tab?PMS_TSK_PBNC_ID=PBD201700000052
이번 포스팅은 입수한 데이터가 어떻게 파생되어 사용되는지 검색/조회할 수 있는 도구의 소개입니다. SK플래닛의 Data Infrastructure팀이 운영/제공하는 하둡 클러스터의 데이터 입수는 주로 해당 팀에서 담당하지만, 이 클러스터를 이용하여 데이터 프로덕트 개발 또는 분석을 수행하는 조직은 약 90여개 팀이 있습니다. . 많은 조직/구성원들이 클러스터를 사용하는데 어떤 데이터들이 있는지 탐색을 하거나, 입수한 데이터를 누가 어떤 방식으로 프로세싱을 해서 활용하는지 추적하기란 매우 어려운 일입니다. 전통적인 BI/DW 조직에서는 Top-down 방식으로 전체를 조망하고 관리하는데, 많은 서비스/팀들을 상대해야 하는 상황이라 이러한 문제를 풀 수 있을까 하는 고민에서 본 도구를 만들기 시작했습니다. 자세한 이야기를 클릭해서 확인하세요~:) http://readme.skplanet.com/?p=13565
SK플래닛은 다양한 서비스와 BM을 보유하고 있고, 200여 개의 클라이언트/서버 로그와 800여 개의 DB스냅샷데이터를 입수하고 있습니다. 원천 데이터의 제공 방식도 매우 다양하여 여러 가지 데이터 입수기를 개발/운영하고 있는데요~, 데이터의 종류도 많고 데이터 입수기의 종류도 다양하여 일정 수준으로 공통화 시키고 상태를 관찰하는 업무가 매우 중요합니다. 사내에 시스템 모니터링을 위한 도구/시스템들은 많지만, 데이터 입수기/서비스 데이터에 대한 이상징후를 탐지하는 시스템은 없어, 데이터 입수 이상징후 탐지 시스템을 개발하게 되었습니다. https://readme.skplanet.com/?p=13557
실시간 데이터 처리 결과와 함께 Spark으로 재구현한 xTogehter를 이용해, 기존에 11번가에서 사용하던 RecoPick 추천 엔진을 Colloseo 추천 엔진으로 교체한 과정을 공유한 엄태욱 님의 글입니다. Spark Streaming을 이용한 실시간 추천 데이터 처리와 Spark을 이용한 추천 배치 처리가 모두 AWS에서 DI클러스터로 전환되어 AWS 비용 감소 효과와 DI클러스터 활용 증대를 모두 달성하였습니다. 또한 더 나은 추천 결과를 통해 매출 기여와 사용자 만족도 향상에도 기여하였습니다. 올해도 Colloseo 추천 엔진은 다양한 실험을 통해 11번가에 다양한 추천을 제공할 예정입니다. http://readme.skplanet.com/?p=13507
이번 포스팅에서는 Syrup pay 인증 모듈 개발 사례를 주제로, 사용자 인증 시 고민하게 되는 비밀번호 암호화와 데이터 암호화 도구에 대해 순수 웹 결제 플랫폼을 지향하는 시럽페이에 반영된 One Password Protocol (by Mozilla)과 JOSE(by Web Payment Group in W3C) 기술에 대해 간략하게 설명합니다 http://readme.skplanet.com/?p=13494
개발 환경이 복잡해짐에 따라 개발 스택이 다양해 지고, 개발자들이 개발 환경을 구축하는데 많은 시간이 낭비되곤 합니다. 이 뿐만 아니라 크리티컬하게는 개발 환경에서는 잘 되어서 반영했는데 운영에서 장애가 발생하는 경우도 있습니다. 이런 문제의 해결 도구로 docker-compose 와 vagrant 에 대한 소개와 실무에 적용한 경험을 포스팅을 통해 공유합니다. http://readme.skplanet.com/?p=13470
SK planet의 클라우드 서비스에서 사용한 Twemproxy와 Redis failover에 대한 내용을 공유합니다. Redis는 최근에 메모리DB, NoSQL 이라는 이름으로 빠른 응답성을 가져야 하는 서비스에 많이 이용되고 있습니다. Redis는 데이터가 메모리에 저장된다는 특징으로 높은 응답 성능을 보이지만, HA(High Availability)를 위해서는 다른 도움을 받아야 합니다. Twemproxy라는 Redis proxy 서버를 이용하여 데이터 저장의 샤딩(Sharding)과 Redis failover에 대한 방법 중에 하나로 정리된 자료입니다. Redis를 실제 서비스에 적용하여 사용하는 분들에게 장애에 대비하는데 좋은 참고자료가 되기를 바랍니다. http://readme.skplanet.com/?p=13477
이번 글에서는 Data Compliance가 무엇이고, SK플래닛에서는 어떻게 대처하고 있는지 아래 내용을 통해 소개해 드리고자 합니다. - Data Compliance의 정의 - SK플래닛 Data Infrastructure에서 다루는 데이터의 종류 - SK플래닛의 Data Compliance 현황 - 데이터 암호화를 중심으로 한 Data Compliance 실무 이해 - SK플래닛의 데이터 지표 관리 암호화와 탈퇴회원 처리 등 Log Data Compliance Issue에 관심이 많으신 분들에게 도움이 되길바라며, 자세한 내용은 블로그에서 확인해주세요. 많은 관심 부탁드려요. :) http://readme.skplanet.com/?p=13381
이번에 소개해 드릴 내용은 SK플래닛의 추천 플랫폼인 레코픽(RecoPick)에서 실시간 로그 처리를 위해 AWS(Amazon Web Services) 상에서 Storm을 기반으로 구현됐던 작업들을, 사내 클러스터인 DI클러스터(이하 DIC)에서 Spark Streaming 작업으로 전환한 경험입니다. 3초 주기의 Spark Streaming으로 RecoPick 서비스의 AWS Storm을 DIC Spark Streaming으로 전환 개발해 유실 없이 중복은 최소화하며 하루 최대 3천만건의 로그를 안정적으로 처리 중인데요~ 자세한 사항을 클릭! 해서 확인하세요. http://readme.skplanet.com/?p=13297