1 redis其它操作
2 redis管道

3 django中使用redis
3.1 通用方案
3.2 第三方模块

4 django缓存

5 celery介绍
5.1 celery的快速使用

1 redis其它操作

'''
delete(*names)
exists(name)
keys(pattern='*')
expire(name ,time)
rename(src, dst)
move(name, db))
randomkey()
type(name)
'''
# rediskey值,最大可以是多少? 最大不超过512M  一般 1KB
# redisvalue值,最大可以是多少? 最大不超过512M
'''
delete(*names)
exists(name)
keys(pattern='*')
expire(name ,time)
rename(src, dst)
move(name, db))
randomkey()
type(name)
'''

import redis

conn=redis.Redis()
# delete(*names)
# conn.delete('userinfo2')

# exists(name)
# print(conn.exists('name'))

# keys(pattern='*')
# print(conn.keys('user*'))
# print(conn.keys('*'))
# print(conn.keys())


# expire(name ,time)
# conn.expire('name',5)


# rename(src, dst)
# conn.rename('userinfo3','us')

# move(name, db))
# conn.move('us',3)

# randomkey()
# print(conn.randomkey())



# type(name)
# print(conn.type('hash2'))
print(conn.type('us'))


conn.close()

2 redis管道

# 事务四大特性
	-原子性:要么都成功,要么失败
    -一致性数据前后要一致
    -隔离性:多个事务之间相互不影响
    -持久性事务一旦完成,数据永久改变
    
# 关系数据库支持事务  
    
# redis没有事务没有专门的事务,但是通过别的方式可以实现事务的几个特性,所以咱们认为它具备事务
	-redis支持事务,要完成事务的几大特性需要使用管道来支持
    -实例redis是支持管道的
    -集群模式下,不支持管道,就不支持事务
    

import redis

conn = redis.Redis()
# 没有管道的情况
# conn.decrby('my_money', 10)
# # 如果出现这种情况会报错
# # 我的钱扣了,但是有别的逻辑插入,我的钱响应的会扣,但是对方的账户却没有加上我转出去的钱
# l = [0, 1, 2]
# print(l[9])
# conn.incrby('zs_money', 10)

# 或者写成
# conn.set('my_money', 90)
# conn.set('zs_money', 110)

## 通过管道实现事务
pipline = conn.pipeline()
# 创建一个管道,把命令一个个放到管道中,先不执行,当执行execute,才会执行管道中所有的命令
pipline.decrby('my_money', 10)
l = [0, 1, 2]
print(l[9])
pipline.incrby('zs_money', 10)
# 只有执行了这句代码,管道中才会真正的执行
pipline.execute()
conn.close()

-------------------------------------------------------------------

### 通过管道实现事务
conn = redis.Redis()
pipline = conn.pipeline(transaction=True)
## 创建一个管道,把命令一个个放到管道中,先不执行,当执行execute,才执行管道中所有的命令
pipline.decrby('my_money', 10)
# 我的钱扣了,写了点别的逻辑--》有可能抛异常
l = [0, 2, 3]
print(l[0])

pipline.incrby('zs_money', 10)

pipline.execute()

conn.close()

3 django使用redis

3.1 通用方案

# 写一个池
import redis

POOL = redis.ConnectionPool(max_connections=20)

# 在要使用的地方,导入使用即可
def redis_demo(requset):
    conn = redis.Redis(connection_pool=POOL, decode_responses=True)
    res = conn.incrby('count')
    print(res)

    return HttpResponse(f'您是我们第:{res}用户')

3.2 第三方模块

# django-redis ---》配置文件配置即可
pip install django-redis

# 配置文件配置
CACHES = {
    "default": {
        "BACKEND": "django_redis.cache.RedisCache",
        "LOCATION": "redis://127.0.0.1:6379",
        "OPTIONS": {
            "CLIENT_CLASS": "django_redis.client.DefaultClient",
            "CONNECTION_POOL_KWARGS": {"max_connections": 100}
            # "PASSWORD": "123",
        }
    },
}

# 在使用位置导入使用
from django_redis import get_redis_connection
def redis_demo(requset):
    conn = get_redis_connection()
    res = conn.incrby('count')
    print(res)

    return HttpResponse(f'您是我们第:{res}个用户')

4 django缓存

# redis数据存在内存中,取放速度快---》非常适合做缓存
	本来数据mysql中,每次都查询速度慢---》把查询出来的数据,暂时存储到redis(缓存),下次请求再来,直接从redis中拿,速度就会很快
    
    
    
# django如何使用缓存
	-配置文件配置(缓存位置内存文件中,redis中)
        CACHES = {
        "default": {
            "BACKEND": "django_redis.cache.RedisCache",
            "LOCATION": "redis://127.0.0.1:6379",
            "OPTIONS": {
                "CLIENT_CLASS": "django_redis.client.DefaultClient",
                "CONNECTION_POOL_KWARGS": {"max_connections": 100}
                # "PASSWORD": "123",
            }
 	-数据放到缓存(放到redis中)
      from django.core.cache import cache
      cache.set(key,value可以任意类型,过期时间)
         -redis只支持5数据类型,可以放python任意类型
         -本质pickle序列化---bytes格式---》以redis字符串的形式放在了redis中
      cache.get(key)
            
            
            
            
# 后期咱么在项目中,使用redis作为django的缓存,多一些,尽量不使用原生redis操作

            
# 前后端分离中,使用 cache.set   cache.get   
# 前后端混合中
     可以整站缓存 
     可以要缓存一个页面
     可以缓存页面中的某个位置
# 可以缓存位置
     内存本地文件数据库reids中 (咱们用的多)
	
# 测试缓存---django的缓存----可以发个任意,但是redis就不能
class Person:
    pass


def cache_demo_set(request):
    # cache.set('count', 100, 5)  # 往缓存中放了count为100,5秒后过期
    # cache.set('count', [1, 2, 'hello', '你好'], 5)
    # cache.set('count', {'name': 'ldj', 'age': 19}, 5)
    p = Person()
    p.name = 'ldj'
    cache.set('count', p)
    return HttpResponse('缓存成功')


def cache_demo_get(request):
    # print(cache.get('count'))
    print(cache.get('count').name)
    return HttpResponse('获取成功')

5 celery介绍

Celery 官网http://www.celeryproject.org/
Celery 官方文档英文版:
	http://docs.celeryproject.org/en/latest/index.html
Celery 官方文档中文版http://docs.jinkan.org/docs/celery/

# celery什么
	分布式异步任务框架第三方框架celery翻译过来是芹菜,吉祥物就是芹菜
    项目中使用异步任务场景,可以使用它
    之前做异步,如何做? 异步发送短信---开启多线程---》不便于管理

# celery什么作用?
	-执行异步任务
    -执行延迟任务
    -执行定时任务
# celery原理
1)可以不依赖任何服务器通过自身命令启动服务
2)celery服务为为其他项目服务提供异步解决任务需求的
注:会有两个服务同时运行,一个是项目服务,一个是celery服务,项目服务将需要异步处理任务交给celery服务,celery就会在需要时异步完成项目需求

人是一个独立运行的服务 | 医院也是一个独立运行的服务
	正常情况下,人可以完成所有健康情况的动作,不需要医院的参与;但当人生病时,就会被医院接收解决人生病问题
	人生病的处理方案交给医院来解决,所有人不生病时,医院独立运行,人生病时,医院就来解决人生病的需求
    
    
    django如果不用异步,正常运行即可,如果想做异步,就借助于 celery来完成
    
    
    
    
# celery架构
	-broker消息中间件任务中间件消息队列:redis,rabbitmq)
    	django要做异步,提交任务任务中间件(redis),存储起来
        Celery本身不提供消息服务,但是可以方便的和第三方提供的消息中间件集成。包括,RabbitMQ, Redis等等
    -worker:任务执行者,任务执行单元
    	不停的从任务中间件中取任务,执行
        Worker是Celery提供的任务执行的单元worker并发的运行在分布式系统节点-banckend:结果存储,任务结果存储
    	把任务执行结果(函数返回值)存放结果存储中(redis)
        用来存储Worker执行的任务的结果,Celery支持以不同方式存储任务的结果,包括AMQP, redis等
     


###  任务中间件:redis
###  结果存储:redis

在这里插入图片描述

5.1 celery的快速使用

# 0 开源的,小组织,不支持win,不要就win问题展开讨论了
	win上:需要借助于第三方

##### 1 安装
 pip install celery  # 最新 5.3.4
###### 2 写代码 main.py
import time
from celery import Celery
# 1 实例化得到对象
broker = 'redis://127.0.0.1:6379/1'  # 消息中间件 redis
backend = 'redis://127.0.0.1:6379/2'  # 结果存,用redis
app = Celery('app', broker=broker, backend=backend)

# 编写任务,必须用app.task 装饰,才变成了celery的任务
@app.task
def send_sms():
    time.sleep(1)
    print('短信发送成功')
    return '手机号短信发送成功'


#### 3 提交任务,使用别的进程
from main import send_sms
res=send_sms.delay() 
print(res)


### 4 启动worker---》可以在3之前
# windows
pip3 install eventlet
celery  -A main worker -l info -P eventlet
# mac  linux
# celery -A main worker -l info


### 5 worker就会执行任务,把执行的结果,放到结果存储

### 6 查看结果 
from celery.result import AsyncResult
from main import app
id = '92987636-ae9e-4be9-828b-8c2d10fe066a'
if __name__ == '__main__':
    a = AsyncResult(id=id, app=app)
    if a.successful():
        result = a.get()
        print(result)
    elif a.failed():
        print('任务失败')
    elif a.status == 'PENDING':
        print('任务等待中被执行')
    elif a.status == 'RETRY':
        print('任务异常后正在重试')
    elif a.status == 'STARTED':
        print('任务已经开始被执行')

原文地址:https://blog.csdn.net/weixin_44145338/article/details/133912320

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任

如若转载,请注明出处:http://www.7code.cn/show_24738.html

如若内容造成侵权/违法违规/事实不符,请联系代码007邮箱suwngjj01@126.com进行投诉反馈,一经查实,立即删除

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注