- xml - AJAX/Jquery XML 解析
- 具有多重继承的 XML 模式
- .net - 枚举序列化 Json 与 XML
- XML 简单类型、简单内容、复杂类型、复杂内容
我正在学习 three.js,尝试尝试转换图像。
我非常喜欢显示的效果here.
我要遵循哪些步骤才能转换与此类似的图像?
到目前为止我有:
// instantiate a loader
var loader = new THREE.TextureLoader();
// load a resource
loader.load(
// resource URL
'clouds.jpg',
// Function when resource is loaded
function (texture) {
init(new THREE.MeshBasicMaterial({
map: texture
}));
},
// Function called when download progresses
function (xhr) {
console.log((xhr.loaded / xhr.total * 100) + '% loaded');
},
// Function called when download errors
function (xhr) {
console.log('An error happened');
}
);
var init = function(material) {
var scene = new THREE.Scene();
var camera = new THREE.PerspectiveCamera( 75, window.innerWidth / window.innerHeight, 0.1, 1000 );
var renderer = new THREE.WebGLRenderer();
renderer.setSize(window.innerWidth, window.innerHeight);
document.body.appendChild(renderer.domElement);
var rectLength = window.innerHeight;
var rectWidth = window.innerWidth;
var rectShape = new THREE.Shape();
rectShape.moveTo(0,0);
rectShape.lineTo(0, rectWidth);
rectShape.lineTo(rectLength, rectWidth);
rectShape.lineTo(rectLength, 0);
rectShape.lineTo(0, 0);
var geometry = new THREE.ShapeGeometry(rectShape);
var cube = new THREE.Mesh(geometry, material);
scene.add(cube);
camera.position.z = 1;
var render = function () {
requestAnimationFrame(render);
renderer.render(scene, camera);
};
render();
}
这将我的图像呈现为平面 2D 形状,但我仍然不知道如何将效果应用于图像。猜测这需要在 render
内部发生,但不确定如何发生。
还是我最好在纯 WebGL 中执行此操作?
非常感谢任何提示/建议/教程!
最佳答案
在 WebGL 中是否有理由这样做?当然,您可以在 WebGL 中执行类似的操作,但您也可以在 2D Canvas 中执行此操作
var img = new Image();
img.onload = start;
img.src = "https://i.imgur.com/v38pV.jpg";
function start() {
var canvas = document.querySelector("canvas");
var ctx = canvas.getContext("2d");
function mix(a, b, l) {
return a + (b - a) * l;
}
function upDown(v) {
return Math.sin(v) * 0.5 + 0.5;
}
function render(time) {
time *= 0.001;
resize(canvas);
var t1 = time;
var t2 = time * 0.37;
// for each line in the canvas
for (var dstY = 0; dstY < canvas.height; ++dstY) {
// v is value that goes 0 to 1 down the canvas
var v = dstY / canvas.height;
// compute some amount to offset the src
var off1 = Math.sin((v + 0.5) * mix(3, 12, upDown(t1))) * 300;
var off2 = Math.sin((v + 0.5) * mix(3, 12, upDown(t2))) * 300;
var off = off1 + off2;
// compute what line of the source image we want
// NOTE: if off = 0 then it would just be stretching
// the image down the canvas.
var srcY = dstY * img.height / canvas.height + off;
// clamp srcY to be inside the image
srcY = Math.max(0, Math.min(img.height - 1, srcY));
// draw a single line from the src to the canvas
ctx.drawImage(
img,
0, srcY, img.width, 1,
0, dstY, canvas.width, 1);
}
requestAnimationFrame(render);
}
requestAnimationFrame(render);
function resize(canvas) {
var width = canvas.clientWidth;
var height = canvas.clientHeight;
if (width != canvas.width || height != canvas.height) {
canvas.width = width;
canvas.height = height;
}
}
}
body { margin: 0; }
canvas { width: 100vw; height: 100vh; display: block; }
<canvas></canvas>
我不知道他们的确切公式是什么,但显然该技术的灵感来自一种叫做 slit scan 的东西。 .
在 WebGL 中执行此操作可能会允许更疯狂的变形,因为您可以轻松地对每个像素进行变形,而不是仅对每行进行变形( Canvas API 中的每个像素会太慢)。 Three.js 会很好,但没有理由为这么小的效果使用这么大的库
这是一个 twgl 版本
var vs = `
attribute vec4 position;
varying vec2 v_texcoord;
void main() {
gl_Position = position;
v_texcoord = position.xy * .5 + .5;
}
`;
var fs1 = `
precision mediump float;
uniform float time;
uniform sampler2D tex;
varying vec2 v_texcoord;
float upDown(float v) {
return sin(v) * .5 + .5;
}
void main() {
float t1 = time;
float t2 = time * 0.37;
float v = v_texcoord.y;
float off1 = sin((v + 0.5) * mix(1., 6., upDown(t1))) * .2;
float off2 = sin((v + 0.5) * mix(1., 3., upDown(t2))) * .2;
float off = off1 + off2;
// like the canvas2d example if off = 0 then the image will just
// be flattly stretched down the canvas. "off" is an offset in
// texture coordinates of which part of the source image to use
// for the current destination.
// In the canvas example off was in pixels since in +1 means use the
// src image 1 pixel lower than we would have used and -1 = one pixel higher
// In shaders we work in texture coords which go from 0 to 1 regardless
// of the size of the texture. So for example if the texture was 100 pixels
// tall then off = 0.01 would offset by 1 pixel. We didn't pass in
// the size of the canvas nor the size of the texture but of course we
// we could if we thought that was important.
vec2 uv = vec2(
v_texcoord.x,
1. - (v + off));
gl_FragColor = texture2D(tex, uv);
}
`;
var fs2 = `
precision mediump float;
uniform float time;
uniform sampler2D tex;
varying vec2 v_texcoord;
float upDown(float v) {
return sin(v) * .5 + .5;
}
#define PI radians(180.)
mat2 rot(float a) {
float c = cos(a);
float s = sin(a);
return mat2(c, s, -s, c);
}
float bounce(float v) {
v = fract(v * .2);
return mix(v, 2. - v, step(1., v));
}
void main() {
float t1 = time;
float t2 = time * 0.37;
float t3 = time * 0.1;
float t4 = time * 1.23;
vec2 tc = rot(time * 0.1) * (v_texcoord - 0.25) ;
vec2 xy = fract(tc * mix(.5, 3., upDown(t4))) * 2. - 1.;
float a = fract(abs(atan(xy.x, xy.y)) / PI + t3);
float r = bounce(length(xy) + t1);
r = pow(r, mix(0.2, 1., upDown(t2)));
vec2 uv = vec2(a, r);
gl_FragColor = texture2D(tex, uv);
}
`;
var gl = document.querySelector("canvas").getContext("webgl");
var programInfo1 = twgl.createProgramInfo(gl, [vs, fs1]);
var programInfo2 = twgl.createProgramInfo(gl, [vs, fs2]);
var bufferInfo = twgl.createBufferInfoFromArrays(gl, {
position: {
numComponents: 2,
data: [
-1, -1,
1, -1,
-1, 1,
-1, 1,
1, -1,
1, 1,
],
},
});
var texture = twgl.createTexture(gl, {
src: "https://i.imgur.com/v38pV.jpg",
crossOrigin: '',
});
var uniforms = {
tex: texture,
time: 0,
};
var programIndex = 0;
var programInfos = [
programInfo1,
programInfo2,
];
function nextProgram() {
programIndex = (programIndex + 1) % programInfos.length;
}
window.addEventListener('keydown', nextProgram);
window.addEventListener('mousedown', nextProgram);
window.addEventListener('touchstart', nextProgram);
function render(time) {
uniforms.time = time * 0.001;
twgl.resizeCanvasToDisplaySize(gl.canvas);
gl.viewport(0, 0, gl.canvas.width, gl.canvas.height);
var programInfo = programInfos[programIndex];
gl.useProgram(programInfo.program);
twgl.setBuffersAndAttributes(gl, programInfo, bufferInfo);
twgl.setUniforms(programInfo, uniforms);
twgl.drawBufferInfo(gl, gl.TRIANGLES, bufferInfo);
requestAnimationFrame(render);
}
requestAnimationFrame(render);
body { margin: 0; }
canvas { width: 100vw; height: 100vh; display: block; }
.top { position: absolute; left: 5px; top: 5px; color: white; }
<script src="https://twgljs.org/dist/twgl.min.js"></script>
<canvas></canvas>
<div class="top">click to switch effects</div>
关于javascript - 在 WebGL 和 three.js 中创建图像变形效果,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39008771/
我正在尝试学习 Knockout 并尝试创建一个照片 uploader 。我已成功将一些图像存储在数组中。现在我想回帖。在我的 knockout 码(Javascript)中,我这样做: 我在 Jav
我正在使用 php 编写脚本。我的典型问题是如何在 mysql 中添加一个有很多替代文本和图像的问题。想象一下有机化学中具有苯结构的描述。 最有效的方法是什么?据我所知,如果我有一个图像,我可以在数据
我在两个图像之间有一个按钮,我想将按钮居中到图像高度。有人可以帮帮我吗? Entrar
下面的代码示例可以在这里查看 - http://dev.touch-akl.com/celebtrations/ 我一直在尝试做的是在 Canvas 上绘制 2 个图像(发光,然后耀斑。这些图像的链接
请检查此https://jsfiddle.net/rhbwpn19/4/ 图像预览对于第一篇帖子工作正常,但对于其他帖子则不然。 我应该在这里改变什么? function readURL(input)
我对 Canvas 有疑问。我可以用单个图像绘制 Canvas ,但我不能用单独的图像绘制每个 Canvas 。- 如果数据只有一个图像,它工作正常,但数据有多个图像,它不工作你能帮帮我吗? va
我的问题很简单。如何获取 UIImage 的扩展类型?我只能将图像作为 UIImage 而不是它的名称。图像可以是静态的,也可以从手机图库甚至文件路径中获取。如果有人可以为此提供一点帮助,将不胜感激。
我有一个包含 67 个独立路径的 SVG 图像。 是否有任何库/教程可以为每个路径创建单独的光栅图像(例如 PNG),并可能根据路径 ID 命名它们? 最佳答案 谢谢大家。我最终使用了两个答案的组合。
我想将鼠标悬停在一张图片(音乐专辑)上,然后播放一张唱片,所以我希望它向右移动并旋转一点,当它悬停时我希望它恢复正常动画片。它已经可以向右移动,但我无法让它随之旋转。我喜欢让它尽可能简单,因为我不是编
Retina iOS 设备不显示@2X 图像,它显示 1X 图像。 我正在使用 Xcode 4.2.1 Build 4D502,该应用程序的目标是 iOS 5。 我创建了一个测试应用(主/细节)并添加
我正在尝试从头开始以 Angular 实现图像 slider ,并尝试复制 w3school基于图像 slider 。 下面我尝试用 Angular 实现,谁能指导我如何使用 Angular 实现?
我正在尝试获取图像的图像数据,其中 w= 图像宽度,h = 图像高度 for (int i = x; i imageData[pos]>0) //Taking data (here is the pr
我的网页最初通过在 javascript 中动态创建图像填充了大约 1000 个缩略图。由于权限问题,我迁移到 suPHP。现在不用标准 标签本身 我正在通过这个 php 脚本进行检索 $file
我正在尝试将 python opencv 图像转换为 QPixmap。 我按照指示显示Page Link我的代码附在下面 img = cv2.imread('test.png')[:,:,::1]/2
我试图在这个 Repository 中找出语义分割数据集的 NYU-v2 . 我很难理解图像标签是如何存储的。 例如,给定以下图像: 对应的标签图片为: 现在,如果我在 OpenCV 中打开标签图像,
import java.util.Random; class svg{ public static void main(String[] args){ String f="\"
我有一张 8x8 的图片。 (位图 - 可以更改) 我想做的是能够绘制一个形状,给定一个 Path 和 Paint 对象到我的 SurfaceView 上。 目前我所能做的就是用纯色填充形状。我怎样才
要在页面上显示图像,你需要使用源属性(src)。src 指 source 。源属性的值是图像的 URL 地址。 定义图像的语法是: 在浏览器无法载入图像时,替换文本属性告诉读者她们失去的信息。此
**MMEditing是基于PyTorch的图像&视频编辑开源工具箱,支持图像和视频超分辨率(super-resolution)、图像修复(inpainting)、图像抠图(matting)、
我正在尝试通过资源文件将图像插入到我的程序中,如下所示: green.png other files 当我尝试使用 QImage 或 QPixm
我是一名优秀的程序员,十分优秀!