nokia sros güvenlik yönetimi, müşteri yönetimi gibi amaçlar için filttelerin uygulnamasına izin vermektedir. aynalama yönteminin mümkün olmadığı, debug yapamadığınız zamanlarda filtreme yöntemini kullanmak paket yakalama / analizini temel düzeyde yapmaya olanak sağlayabilir. bunun nasıl yapılacağına en basit haliyle inceleyelim.
öncelikle yazacağımız filtre ile gözlemleyeceğimiz paketlerin nerede tutulması gerektiğe ait ayarları yapmakta fayda var. bu örnekte ramde tutulması bizim için yeterli olacak. log için bir id belirleyerek öncelikle filter log oluşturalım.
*A:#/configure filter log 38 create
*A:>config>filter>log# info
----------------------------------------------
----------------------------------------------
*A:>config>filter>log#
log ortamımının tutulacağı alanı oluşturmuş olduk. default değeri 1000 olduğu için bu dğeri ihtiyacımız karşılayacak düzeyde arttıralım.
*A:>config>filter>log# destination memory 20000
verilecek değerde dikkatli olunmalı. hafızayı şişirmemek gerekli. şimdi paket yakalamak için filtremizi oluşturabiliriz. yakalamak istediğimiz paketlerin hedef ve kaynak iplerini bildigimizi düşünerek ip bazlı bir filtre yapalım.
filtreleri oluştururken paketler üzerinde bir engelleme v.b. yapmacağımız için default-action ve entry lerin action forward yapmayı unutmuyoruz.
bu örneğimizde epipe bir servisin üzerindeki paket analizini yapacağımız için hem ingress hemde egress e filtre uygulamamız gerkiyor. burada dikkat edilmesi gereken önemli bir nokta var. ingress ve egress lere filtrre uygularken hedef ve kaynak ipleri yer değiştirmiş olacak.. bu nedenden dolayı oluşturduğumuz ip-filter altına iki tane entry ekliyoruz ve ip adreslerini buna göre giriyoruz…
her entry altında yakalanan paketlerin kaydedilmesi için oluşturdugumuz log idsini de ekledikten sonra filtremiz tamamlanmış oluyoruz.
daha optimum bir filtre oluşturulabilir ancak bu haliye işimizi görecektir. filtremiz hazır olduğuna göre sıra uygulamaya geldi.
*A:#/configure service epipe 1
*A:>config>service>epipe# info
----------------------------------------------
sap lag-1:1 create
ingress
filter ip 38
exit
egress
filter ip 38
exit
no shutdown
exit
spoke-sdp 100:1 create
no shutdown
exit
no shutdown
şimdi paketleri inceleyebiliriz. bakmamız gereken komut ve örnek çıktı aşagıdaki gibidir.
“Maximum entries configured : 20000” alanında ne kadar log olacağı bilgisi mecut .. biz 20000 yapmıştık… “Number of entries logged : 116” komutu çalıştırdığımızda yazdığımız filtreye giren 116 kayıt olduğunu görüyoruz. alltraki kısımlarda ip nin gözlendiği pakete ait bilgiler yer almaktadır..
vbs,python gibi scriptleri desteklemesi nedeniyle en sık kullanılan ssh client uygulamalarında bir tanesi durumda securecrt.
securecrt nin güzel özelliklerden bir taneside yapılan tüm işlemlerini hiyerarşik şekilde log tutabilmenizdir. bunun için yapılması gereken “edit default session options” altında log file dosyasına ait konfigürasyonu yapmalısınız.
açılan pencede “start log upon connect” seçerek securecrt çalışmaya başladı anda aktif olmasını sağlıyoruz. log dosya ismini oluşturuken program tarafından desteklenen dosya isim formatlarını kullanabiliyorsunuz. benim kullanmakta olduğun versiyon için kullanılabilecek parametler aşagıdaki şekilde tanımlanmış.
%H - hostname
%H - hostname (not valid with protocols that do not specify a host, such as Serial)
%S - session name
%Y - four-digit year
%y - two-digit year
%M - two-digit month
%D - two-digit day of the month
%P - port (not valid with protocols that do not specify a port, such as RLogin)
%h - two-digit hour
%m - two-digit minute
%s - two-digit seconds
%t - three-digit milliseconds
%F - directory path starting below the "Sessions" folder
%% - percent (%)
%envvar% - environment variable
bu parametreleri kullanarak istediğiniz formatta log dosyaları oluşturabilirsiniz. ben yıl/ay/gün/hostname-saat klasör yapısını kullandım.
route ADD destination_network MASK subnet_mask gateway_ip metric_cost IF interface_id
bu işlem için statik yönlendirme yapma yetkisine sahip bir kullanıcı olmalısınız. kişisel bir bilgisayar kullanıyırsanız powershell veya cmd yi yöneticisi yetkisi ile çalıştır demeniz yeterli olacaktır.
ile 10.38.0.0/24 adresini 192.168.0.1 ipsine yönlendirmiş oluyoruz. windows üzerinde vpn bağlantısı, sanal makine v.b. kullanıyor ve yönlendirmeyi bunlara yapmak istiyorsanız interface id yi ögrenmemiz gerekmektedir. bunun için
pulse secure kullanımı sırasında hız yavaşlığı sorunu yaşıyorsanız bunun birden çok nedeni olabilir. route tablosu normal ve hız sorunu pulse secure sizi dahil ettiği network dışındaysa ncpa.cpl ile “Denetim Masası\Ağ ve Internet\Ağ Bağlantıları” nı açıp buradan aktif bağlantınıza ait özellikler altında “juniper network service” seçilmiş ise kaldırmayı deneyebilirsiniz.
huawei network ekipmanlarında loglar yapılan konfigürasyon ayarlarına göre belirli bir tarihten veya log sayısından fazlası router üzerindeki hafıza ortamlarında tutulabilmektedir. nms üzerinde geçmişe ait log kaydı tutmuyorsanız ve/veya router üzerinde log analizi yapmak isterseniz işinize yarayacaktır.kısaca gerekli incelemelerin nasıl yapılacağına bakalım.
“display logfile-path” komutu ile log dosyalarının nerede tutulduğunu öğrenebiliriz.
<fcicek_huawei_test_router>display logfile-path
Info: Current log file path is "cfcard2:/log".
dosya konumu ögrenildikten sonra ilgili alan / dizine geçiş için cd komutunu kullanıyoruz.
geçmişe dönük arşivlenmiş logları görmek için “display logfile” komutu kullanılacaktır. yalnız burada dikkat edilmesi gereken noktada dosyanın tam yolunu yazmak gerektiği. bu farklı yazılımlarda değişebilir.
<fcicek_huawei_test_router>display logfile cfcard2:/log/2016-02-12.14-28-51.log.zip
Info: It may take several seconds, please wait ...
100% complete
################################################################
# This logfile is generated at slot 9
################################################################
################################################################
#Automatic record log end,current health information as follows:
Slot CPU Usage Memory Usage (Used/Total)
---------------------------------------------------------------
9 MPU(System Master) 9% 31% 571MB/1806MB
1 LPU 18% 46% 384MB/825MB
2 LPU 18% 45% 378MB/825MB
3 LPU 19% 46% 386MB/825MB
10 MPU 5% 26% 473MB/1806MB
#DateTime Stamp: 2016-01-26 16:58:51.980
################################################################
Jan 26 2016 17:00:14+02:00 fcicek_huawei_test_router LSPM/1/LDPVTUNNEL_DOWN:OID 1.3.6.1.4.1.2011.5.25.182.1.54.2 LDP virtual tunnel went Down. (VirtualTunnelIndex=3567058411)
Jan 26 2016 17:00:14+02:00 fcicek_huawei_test_router LSPM/1/LDPVTUNNEL_DOWN:OID 1.3.6.1.4.1.2011.5.25.182.1.54.2 LDP virtual tunnel went Down. (VirtualTunnelIndex=3567058317)
aynı isimli tablo varsa sileceğiz ve veri tabanımızla aynı isimli bir tablo oluşturacağız. örneğimizi basit tutmak adına anlık cpu ve hafıza verilerini tablomuzda tutacağımız için tablomuzda bu veriler için gerekli alanları oluşturacağız…
import sqlite3 as lite
import sys
con = lite.connect('system_usage.db')
with con:
cur = con.cursor()
cur.execute("DROP TABLE IF EXISTS system_usage")
cur.execute("CREATE TABLE system_usage(timestamp DATETIME, cpu NUMERIC, mem NUMERIC)")
kodumuz yazık şimdi virtualenv i aktif ederek kodumu çalıştıralım…
(env) fcicek@ferhatcicek:~/system_usage$ python psutil_system.py
MEM % used: 86.5
CPU % used: 2.0
anlık olarak cpu ve hazfıza kullanım bilgileriniz artık alabiliyoruz. bu bilgilerini şimdi de veritabanımıza ekleyelim.
bunun için program tarafımızdan sonlandırılana kadar 60 saniyede bir cpu ve hazfıza kullanım değerini okuyarak sqlite veritabanına ekleyecek basit bir kod yazalım.
import time
import sqlite3
import psutil
dbname='system_usage.db'
ornekleme_zamani = 60
def sistem_bilgisi_oku():
mem = psutil.virtual_memory()[2]
cpu = psutil.cpu_percent(1)
if mem is not None and cpu is not None:
return cpu,mem
def veritabani_ekle (cpu, mem):
conn=sqlite3.connect(dbname)
curs=conn.cursor()
curs.execute("INSERT INTO system_usage values(datetime('now'), (?), (?))", (cpu, mem))
conn.commit()
conn.close()
def main():
while True:
cpu, mem = sistem_bilgisi_oku()
veritabani_ekle (cpu, mem)
time.sleep(ornekleme_zamani)
main()
artık verilerimizi bir veri tabanında turuyoruz. şimdi bunu web üzerinden bağlantı yapacak kullanıcılar için görselleştirelim. bunun için flask frameworkunu kullancağız. virtualenv altına flask ve ilişkili paketleri yükleyelim.
from flask import Flask, render_template, request
app = Flask(__name__)
import sqlite3
def getData():
conn=sqlite3.connect('system_usage.db')
curs=conn.cursor()
for row in curs.execute("SELECT * FROM system_usage ORDER BY timestamp DESC LIMIT 1"):
time = str(row[0])
cpu = row[1]
mem = row[2]
print(str(cpu))
print((str(mem))
conn.close()
return time, cpu, mem
@app.route("/")
def index():
time, cpu, mem = getData()
templateData = {
'time': time,
'cpu': cpu,
'mem': mem
}
return render_template('son_olcum.html', **templateData)
if __name__ == "__main__":
app.run(host='0.0.0.0', port=5000, debug=True)
flask frameworkun tema yapısını kullanacağımız için templates dizinini oluşturup içinde gerekli dosyaları oluşturmamız gerekmektedir. python dosyamızda ilişkilendirilen tema dosyası son_olcum.html veiçerisinde kullanılacak verinin templateData olarak belirtildi.
tarayıcımız ile http://sunucuip:5000 adresine bağlandığımız aşagıdaline benzer bir ekran ile karşılaşmamız gerekecek…
kodumuz biraz daha geliştirmenin zamanı geldi. cpu ve hafıza verilerini veritabanımızda tuttugumuz için bu veriyi bir grafik olarka ekrana yansıtabiliriz. bu işlem sırasında mathplotlib paketinde faydalanacağımız için öncelikle kurulumunu yapalım.
şimdi kodumuza yapacağımız ilave , belirtilen örnekleme sayısınca veri tabanından veri çekip bunu grafiği oluşturup son kullanıcıya ileteceğiz. cpu ve hafiza grafiklerini çizdirmek için app.route metodundan faydalanacağız.
from flask.globals import session
from matplotlib.backends.backend_agg import FigureCanvasAgg as FigureCanvas
from matplotlib.figure import Figure
import io
from flask import Flask, render_template, send_file, make_response, request
app = Flask(__name__)
import sqlite3
def sonKayit():
conn=sqlite3.connect('system_usage.db')
curs=conn.cursor()
for row in curs.execute("SELECT * FROM system_usage ORDER BY timestamp DESC LIMIT 1"):
time = str(row[0])
cpu = row[1]
mem = row[2]
conn.close()
return time, cpu, mem
def sonKayitDizi (orneklemeSayisi):
conn=sqlite3.connect('system_usage.db')
curs=conn.cursor()
curs.execute("SELECT * FROM system_usage ORDER BY timestamp DESC LIMIT "+str(orneklemeSayisi))
data = curs.fetchall()
tarihDizi = []
cpuDizi = []
hafizaDizi = []
for row in reversed(data):
tarihDizi.append(row[0])
cpuDizi.append(row[1])
hafizaDizi.append(row[2])
conn.close()
return tarihDizi, cpuDizi, hafizaDizi
def maksimumKayit():
conn=sqlite3.connect('system_usage.db')
curs=conn.cursor()
for row in curs.execute("select COUNT(cpu) from system_usage"):
maksimumKayitDizi=row[0]
conn.close()
return maksimumKayitDizi
global orneklemeSayisi
orneklemeSayisi = maksimumKayit()
if (orneklemeSayisi > 101):
orneklemeSayisi = 100
@app.route("/")
def index():
time, cpu, mem = sonKayit()
templateData = {'time':time,'cpu':cpu,'mem':mem,'orneklemeSayisi':orneklemeSayisi}
return render_template('index.html', **templateData)
@app.route('/', methods=['POST'])
def post_form():
global orneklemeSayisi
orneklemeSayisi = int (request.form['orneklemeSayisi'])
numMaxSamples = maksimumKayit()
if (orneklemeSayisi > numMaxSamples):
orneklemeSayisi = (numMaxSamples-1)
time, cpu, mem = sonKayit()
templateData = {'time':time,'cpu':cpu,'mem':mem,'orneklemeSayisi':orneklemeSayisi}
return render_template('index.html', **templateData)
@app.route('/plot/cpu')
def cpu_cizim():
times, cpuDizi, hafizaDizi = sonKayitDizi(orneklemeSayisi)
ys = cpuDizi
fig = Figure()
axis = fig.add_subplot(1, 1, 1)
axis.set_title("CPU [%]")
axis.set_xlabel("Örnekleme")
axis.grid(True)
xs = range(orneklemeSayisi)
axis.plot(xs, ys)
canvas = FigureCanvas(fig)
output = io.BytesIO()
canvas.print_png(output)
response = make_response(output.getvalue())
response.mimetype = 'image/png'
return response
@app.route('/plot/mem')
def hafiza_cizim():
times, cpuDizi, hafizaDizi = sonKayitDizi(orneklemeSayisi)
ys = hafizaDizi
fig = Figure()
axis = fig.add_subplot(1, 1, 1)
axis.set_title("MEM [%]")
axis.set_xlabel("Örnekleme")
axis.grid(True)
xs = range(orneklemeSayisi)
axis.plot(xs, ys)
canvas = FigureCanvas(fig)
output = io.BytesIO()
canvas.print_png(output)
response = make_response(output.getvalue())
response.mimetype = 'image/png'
return response
if __name__ == "__main__":
app.run(host='0.0.0.0', port=5000, debug=True)
python projelerinde, projenin sorunsuz olarak çalışması için ihtiyaç duyulan paketler ana dizinde genel olarak requirements.txt dosyası içinde belirtilir.
dosya içerinde her satırda ihtiyaç duyulan modül adı ve sürüm numarası yer almaktadır.
Jinja2==3.0.1
requests==2.25.1
paketlerin sürümlerinde farklılık olabiliceği için yeni ve eski sürümlerde uygulama düzgün şekilde çalışmayabilir… bunun için paket sürüm ihtiyaçlarını belirtmek için ==, >=, <= operaatörleri kullanılabilir.
geliştirme ortamınızda en doğru paket ve versiyonlarını dosyaya aktarmak için pip paket yöneticisini kullanıyorsak
pip freeze > requirements.txt
komutu kullanılabilir. temin edilmiş herhangi bir projedeki en uygun paket kurmak içinde