분류 전체보기239 스토리의 기술 피터 거버 저 / 김동규 역 책 표지의 만큼이나 내용이 인상적이지는 않았다. 몇 가지 강력하게 느낀 점들이 있었는데 자신을 펴현할 수 있는 스토리 텔링이 필요하며, 조직에서 목표에 도달 할 수 있는 동기를 부여할 스토리역시 중요하게 생각 됐다. 하지만 이 책에 쓰여저 있는 내용들이 크게 공감 되지 않아서 읽는데 어려움이 많았다. 사실 내가 사는 세상의 이야기라기 보다는 기업인 정치인들의 이야기가 아닐까 하는 생각이 많이 들었다. 그러다 보니 공감을 사기 힘들었다. 이 책을 읽으며 가장 생각나는 스토리가 하나 생각이 났다. 2013~2014 EPL 리그 마지막 3경기가 남아 있는 리버플 시즌 1위를 달리고 있었고, 2위 맨시티와 3위 첼시가 뒤를 바짝 쫓고 있었다.그리고 저 남은 3경기를 다 이기면 리버풀.. 2022. 9. 7. 보이지 않는 것을 팔아라 지은이 헤리 벡위드 잠재 고객을 이끄는 11가지 마케팅 전략을 소개한 책이다. 이책을 3번 정도 정도 하고 나서 그동안 정확하게 해 나갔던 부분과 실수했던 부분에 대해서 많은 것을 배우게 되었다. 앞으로 고쳐야 할 부분들을 찾을 수 있었으며, 왜 지금까지 많은 실패를 했는지 고객과 거래 직전 계약이 파괴 되었는지 알 수 있는 계기가 되었다. 그리고, 가장 큰 배움은 지금 함께하고 있는 동료 모두 변화해야 한다는 사실이였다. 그리고 마케팅에 관심이 있는 모든 분들이 꼭 사봤으면 하는 책이다. " 광고 문구나 보도자료를 작성하기 전에, 먼저 회사의 서비스를 점검하라" 모두가 자기 회사의 서비스에 대한 자부심을 가지고 있으며, 대부분의 알파집단은 우리가 많든 것이 최고라고 생각 하고 있다. 밖은 고객들은 우리.. 2022. 8. 30. 1. 시작 책을 보고 항상 기억이나지 않아 독서한 책에 대해 간략하게 후 감평을 남기고 싶어졌다. 나이가 한살한살 들어가 가며 점점 기억할 수 있는 용량이 줄어드는 거 같아서.... 2022. 8. 27. golang에서 go run 이 지겨울때 개발자는 아니지만 공부하면서 수정 할 때마다. Go run 을 해야 해서.... 다른 방법이 없을까 찾아 보다 Reflex를 찾았다. https://github.com/cespare/reflex 위 github 주소로 들어가면 자세한 사항을 확인 가능하다 사용 방법은 간편한데, 아래와 같이 설치 하고 go install github.com/cespare/reflex@latest Makefile 을 만들어 줍니다. 그리고, Makefile안에는 아래와 같이 작성해 줍니다. dev: ../bin/reflex -r '.go' -s -- go run main.go 위와같이 설정을 완료 하면, 실행 창에 아래와 같이 실행하여 주면 끝!!!^^ $ make dev 저장 버튼을 누를때 마다 자동으로 run 될거에요~ 2022. 8. 25. MariaDB 설치 mariadb 설치 하기 sudo apt-get install software-properties-common dirmngr apt-transport-https sudo apt-key adv --fetch-keys 'https://mariadb.org/mariadb_release_signing_key.asc' sudo add-apt-repository 'deb [arch=amd64,arm64,ppc64el] https://mirror.yongbok.net/mariadb/repo/10.5/ubuntu focal main' apt update apt install mariadb-server DB data directory 변경 해당 작업 전 my.cnf 수정 후 해야 함 sudo chown mysql.mys.. 2022. 2. 24. supervisor Centos supervisor 설치 yum install supervisor Ubuntu supervisor 설치 apt install supervisor program 설정 [program:test] process_name=%(program_name)s directory=/data/test command=test autostart=yes autorestart=yes startretries=3 sterr_logfile=/var/log/web_test/test_err.log stdout_log=/var/log/web_test/test.log user=root 2022. 2. 18. Linux Time Zone 설정 현재 timezone 확인 ls -al /etc/localtime lrwxrwxrwx 1 root root 27 Feb 4 07:06 /etc/localtime -> /usr/share/zoneinfo/Etc/UTC timezone list 확인 timedatectl Local time: Wed 2022-02-16 11:50:14 UTC Universal time: Wed 2022-02-16 11:50:14 UTC RTC time: Wed 2022-02-16 11:50:14 Time zone: Etc/UTC (UTC, +0000) System clock synchronized: yes NTP service: active RTC in local TZ: no 한국시간으로 timezone 변경 timedate.. 2022. 2. 18. IPTABLE Rule 설정 :INPUT ACCEPT [0:0] :FORWARD ACCEPT [0:0] :OUTPUT ACCEPT [0:0] -A INPUT -m state --state RELATED,ESTABLISHED -j ACCEPT -A INPUT -p icmp -j ACCEPT -A INPUT -i lo -j ACCEPT -A INPUT -p tcp -m tcp --dport 22222 -j ACCEPT -A INPUT -p tcp -s 10.10.10.10/27 -m tcp --dport 22222 -j ACCEPT -A INPUT -p tcp -s 11.11.11.11/27 -m tcp --dport 3306:3309 -j ACCEPT -A INPUT -p tcp -s 1.1.1.1 -m tcp --dport 80 -.. 2022. 2. 16. IPTABLE 설치 CentOS 7 / 8 systemctl stop firewalld systemctl disable firewalld yum install epel-release yum install iptables-services systemctl start iptables vi /etc/sysconfig/iptables Ubuntu 18.04LTS / 20.04LTS 설치 apt-get install iptables-persistent service itables start vi /etc/iptables/rules.v4 2022. 2. 16. [ 제 5강 AVRO 해보기] KAFKA AVRO 해보기 구성해 보기 오늘 해보려고 하는 구성이 대략 이런거에요 우선 기존에는 구성했던 kafka를 보면 1대의 서버에 kafka와 zookeeper가 같이 실행 되고 있는 형태 이죠~ 여기에 schemaregistory 와 connector 를 설정해서 연결해 볼 예정입니다. 그리고 mariadb를 설치하여 전송된 메시지를 바로 DB에 insert해 보도록 하겠습니다. 1. SCHEMA REGISTRY 세팅 vi /etc/schema-registry/schema-registry.properties ############################## 수정 사항 ################################ listeners=http://0.0.0.0:8081 kafkastore.connection.. 2021. 2. 5. [ 제 4강 관리 ] ReplicaFactor 변경 Replication Factor 이번에는 Replication Factor 변경하는 방법에 대해서 보겠습니다. 우선 이전 생성했던 example-topic 토픽에 정보를 확인해 보겠습니다. kafka-topics --zookeeper 192.168.2.77:2181,192.168.2.78:2181,192.168.2.78:2181/kafka --topic example-topic --describe # 결과 값 확인 Topic:example-topic PartitionCount:1 ReplicationFactor:1 Configs: Topic: example-topic Partition: 0 Leader: 3 Replicas: 3 Isr: 3 그럼 이제 replica factor 변경을 해보겠습니다. 지.. 2021. 2. 3. [ 제3-1강 소비와 생산 ] KAFKA Producer & Consumer 이번에는 토픽을 바라보는 여러대의 서버가 있다는 가정을 가지고 테스트 해보려 합니다. 구성은 다음과 같습니다. 많은 설명은 피하고, 그럼 테스트 진행을 해 보도록 하겠습니다. topic은 지난번 사용하였던 example-topic 을 사용하도록 하겠습니다. # KAFKA PRODUCER kafka-console-producer --broker-list 192.168.2.77:9092,192.168.2.78:9092,192.168.2.79:9092 --topic example-topic # KAFKA CONSUMER 1 kafka-console-consumer --bootstrap-server 192.168.2.77:9092,192.168.2.78:9092,192.168.2.79:9092 --topic e.. 2021. 2. 2. [ 제 3강 소비와 생산 ] KAFKA Producer & Consumer KAFKA의 생산과 소비를 테스트 하려 합니다. 우선 컨슈머 셋팅을 하겠습니다. 우리가 이전 시간에 생성했던 토픽을 활용합니다. 아래와 같이 컨슈머를 실행하면, 아래 이미지와 같은 console이 생성 됩니다. 어떤 현상이 발생 한다기 보다는 그냥 로그를 확인하는 창과 비슷합니다. 이벤트가 발생하면 찍히는 kafka-console-consumer --bootstrap-server 192.168.2.77:9092,192.168.2.78:9092,192.168.2.79:9092 --topic example-topic 이제 프로듀서를 실행해 보겠습니다. 아래와 같이 프로듀서를 실행하면 > 프롬프트 상태로 멈춰 있는데요, 이제 거기에 어떤한 모든 메시지를 입력하면 되겠죠~ kafka-console-produce.. 2021. 2. 1. [ 제 2강 설치 ] KAFKA TOPIC 생성 이번에는 TOPIC 생성을 해보도록 하겠습니다. TOPIC의 생성 방법은 어렵지 않으니 가볍게 해보도록 하겠습니다. kafka-topics --create --zookeeper 192.168.2.77:2181,192.168.2.78:2181,192.168.2.79:2181/kafka --replication-factor 1 --partitions 1 --topic example-topic 위와 같이 하면 topic 생성이 완료 됩니다. topic 생성 확인 명령은 아래와 같습니다. kafka-topics --zookeeper 192.168.2.77:2181,192.168.2.78:2181,192.168.2.79:2181/kafka --list | grep example-topic grep 없이 list를.. 2021. 2. 1. [ 제 1강 설치 ] zookeeper 와 KAFKA 설치하기 이번에는 zookeeper 설치를 진행해 보려 합니다. 오래전 설치 한 기억들을 끌어올리려 하니 ㅠㅠ 정말 힘드네요 일단 zookeeper 설치에 앞서 사전 진행 사항이 필요합니다. zookeeper와 kafka 테스트의 편의성을 위해 confluent platform을 사용해 보려합니다. 사전진행 (3대의 서버에서 실행 합니다.) 1. 필수 패키지 설치 진행 yum install curl which 2. yum 패키지 설치 rpm --import https://packages.confluent.io/rpm/6.0/archive.key 3. yum repo 생성 /etc/yum.repos.d/confluent.repo [Confluent.dist] name=Confluent repository (dist.. 2021. 1. 26. APACHE KAFKA 이야기 KAFKA 사용기 데이터의 빠지는 현상을 최대한 줄여야 하는 시스템 운영이 필요하던 곳에서, DB에 적재되어야 할 데이터 적재되지 못하는 현상이 발생하는 상황을 맞이 했습니다. 그런 데이터들이 중간중간에 빠지면서 계산이 맞지 않아 어려움을 격었는데요, 그때 많은 고민을 하던 중 KAFKA 도입에 대한 얘기를 했습니다. 필자는 시스템엔지니어인데 그당시 개발자들에게 KAFKA사용을 권하는게 가장 큰 힘든점 이었습니다. 그럼, KAFKA의 장점과 단점을 이야기 해 보겠습니다. 1. 장점 - 속도 - 메시지 소실율의 감소 - 구조설계의 간소화 2. 단점 - 진입장벽이 있음 - 클러스터 구축에 있어 시스템 가용이 올라감. (zookeeper 3대, kafka 3대) 이벤트 스트리밍이란? 이벤트 스트리밍은 인체의 .. 2021. 1. 25. [ 제5강 캐싱 ] NGINX 콘텐츠 캐싱 응답 캐싱 활성화 캐싱을 사용하려면 proxy_cache_path 최상위 컨텍스트에 지시문을 포함하십시오. 필수 첫 번째 매개변수는 캐시 된 콘텐츠의 로컬 파일 시스템 경로이고 필수 매개변수는 캐시 된 상목에 대한 메타 데이터를 저장하는 사용되는 공유 메모리 영역의 이름과 크기를 정의 합니다. http { ... proxy_cache_path /data/nginx/cache keys_zone=one:10m; } 그런다음 proxy_cache 서버 응답을 캐시 할 컨텍스트에 지시문 keys_zone 을 포함하고 proxy_cache_path 지시문에 대한 매개 변수로 정의 된 영역 이름을 지정합니다. http { ... proxy_cache_path /data/nginx/cache keys_zone=one.. 2021. 1. 22. [ 제4강 TCP&UDP부하 분산 ] NGINX 로드 벨런서 TCP & UDP 부하분산을 위한 전제조건 NGINX 오픈소스 --with-stream 활성 TCP 또는UDP를 통해 통신하는 애플리케이션 데이터베이스 또는 서비스 역방향 프록시 구성 1. 최상위 stream {} 블록 만들기 stream { } 2. server {} 최상위 stream {} 각 가상 서버에 대해 하나 이상의 구성 블록을 정의 합니다. 3. server {} 각 서버의 구성 블록 내에 서버가 수신 listen 하는 IP 주소 및 / 또는 포트를 정의하는 지시문을 포함 합니다. UDP 트래픽의 경우 udp 매개 변수도 포함 합니다., TCP 가 stream 컨텍스트의 기본 프로토콜 이므로 지시문에 대한 tcp 매개 변수가 없습니다. stream { server { listen 12345;.. 2021. 1. 22. 이전 1 ··· 10 11 12 13 14 다음